• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 11
  • Tagged with
  • 52
  • 52
  • 36
  • 21
  • 13
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Gestión de la confianza en redes colaborativas centradas en el intercambio seguro de alertas para la detección de ataques distribuidos

Gil Pérez, Manuel 23 December 2015 (has links)
Las alertas que los IDSs necesitan intercambiar para la detección de ataques distribuidos deben ser evaluadas antes de que sean aceptadas como verdaderas. Comportamientos maliciosos de un IDS, enviando alertas fraudulentas, haría sospechar al sistema de intentos de alteración de sus políticas de seguridad, cuando no es así. La gestión de la confianza para modelar el comportamiento de los IDSs se convierte en una herramienta obligatoria en la evaluación de las alertas. Además, también se deben proteger los canales de comunicación entre los IDSs para que el intercambio de alertas se realice de manera segura, garantizando que no se comprometa la confidencialidad e integridad de las alertas intercambiadas ni que sean enviadas por IDSs no legítimos del sistema. En este contexto, el objetivo de esta tesis doctoral es la definición, diseño y puesta en marcha de un Sistema Colaborativo de Alertas (CAS) para detectar ataques distribuidos, con el intercambio seguro de las alertas generadas por IDSs confiables en entornos multidominio. Concretamente: Sobre la seguridad en el intercambio de las alertas: Analizar las limitaciones para garantizar la autenticidad de los IDSs como entidades legítimas del CAS, así como la confidencialidad e integridad de las alertas intercambiadas. Diseñar un algoritmo para la validación de certificados X.509 en entornos multidominio. Implantar y evaluar en rendimiento el algoritmo de construcción y validación de caminos de certificación. Sobre la confianza en las alertas generadas por los IDSs: Estudiar y analizar mecanismos para el modelado del comportamiento de un IDS. Desarrollar un modelo para detectar alertas fraudulentas, generadas por IDSs maliciosos. Diseñar un modelo para la asignación inicial de la confianza a nuevas unidades de detección.  Analizar las principales técnicas de optimización en la detección de ataques distribuidos y proporcionar un sistema con el que maximizar la calidad de los procesos de detección. Desplegar y evaluar los modelos de confianza basados en reputación para maximizar el ratio en la identificación de falsos positivos, debido a comportamientos malintencionados. Para ello, se ha empleado la siguiente metodología: Análisis crítico de los principales retos ante los que se enfrentan los sistemas de detección de ataques distribuidos, sobre todo en el intercambio seguro de las alertas. Identificación de los fallos y las oportunidades en las tecnologías existentes para la correcta detección de ataques distribuidos. Definición de modelos de confianza para el intercambio seguro de las alertas, así como la identificación de comportamientos maliciosos de los emisores de dichas alertas. Evaluación minuciosa de todas las propuestas realizadas mediante intensas simulaciones y pruebas experimentales. A continuación se enumeran los principales resultados que se han obtenido durante el desarrollo de esta tesis doctoral. Gestión de la seguridad en el intercambio de las alertas con criptografía de clave pública. Propuesta sobre la definición de los certificados X.509 mediante una serie de requisitos para una correcta interoperabilidad entre los dominios de seguridad de una federación de PKIs. Sobre esta federación, se propone un algoritmo de construcción y validación de caminos de certificación, como parte de un Servicio de Validación, para validar certificados en entornos multidominio. Su evaluación se ha hecho analizando 268.048 certificados de la federación de PKI más representativa en la actualidad, la Federal Bridge Certification Authority. Gestión de la confianza basada en reputación para la detección de alertas fraudulentas. Sistema de reputación con el que modelar el comportamiento que tienen los IDSs a la hora de publicar y compartir sus alertas. La gestión de esta confianza se ha realizado mediante dos mecanismos basados en reputación. Uno a nivel intradominio, para ver la probabilidad que las alertas intercambiadas entre los IDSs de un dominio de seguridad son verdaderas, y otro a nivel interdominio, con el que confirmar la confianza entre los dominios de seguridad y/o administrativos al evaluar como cierta las alertas que intercambian. La evaluación de los dos modelos arroja la posibilidad de detectar hasta un 95% de falsos positivos. Asignación de un valor inicial de la confianza de una nueva unidad de detección. Sistema con el que evaluar la confianza que se puede depositar en una nueva unidad de detección. Sobre todo, en nuevos sistemas de detección instalados en los dispositivos móviles de los usuarios finales. La evaluación del sistema propuesto confirma la correcta identificación de comportamientos maliciosos de hasta un 30% de los dispositivos móviles, pudiendo aislarlos a partir de entonces sin tener en cuenta las alertas fraudulentas que pudieran generar. Sistema adaptativo para maximizar la calidad de las alertas con el despliegue de la mejor configuración de monitorización posible. Sistema de reputación basado en la diversidad de la confianza entre todos los valores de reputación de los IDSs, con el que obtener y aplicar el mejor modelo de despliegue posible de los IDSs para maximizar la confianza en sus procesos de detección. Mediante la evaluación realizada se ratifica que la diversidad de la confianza, como métrica heurística para medir la calidad en la detección, permite obtener el mejor modelo de despliegue de los IDSs para tener mejores evidencias sobre sus alertas, con el fin último de detectar ataques distribuidos de la manera más precisa posible. / The alerts that the IDSs need to exchange for detecting distributed attacks should be assessed before endorsing them as true. Malicious behaviors from an IDS, sending out fraudulent alerts, can lead the system to suspect alteration attempts of it security policies, when it is not real. The trust management for modeling the IDSs' behavior is claimed as a must tool in assessing security alerts. Furthermore, the communication channels between the IDSs should also be protected to ensure the exchange of alerts is carried out safely, assuring that the alerts' confidentiality and integrity is not compromised nor these alerts are sent by IDSs not legitimate of the system. In this context, the main objective of this PhD Thesis is the definition, design and start-up of a Collaborative Alert System (CAS) for detecting distributed attacks, with the support of the secure exchange of the alerts produced by reliable IDSs in multi-domain environments. Specifically: Regarding the security in exchanging alerts: Analyze the limitations for ensuring the authenticity of the IDSs as legitimate entities of the CAS, as well as the confidentiality and integrity of the alerts exchanged. Design an algorithm for the X.509 certificate validation in multi-domain environments. Deploy and evaluate in performance the certification path building and validation algorithm. Regarding the confidence on the alerts produced by the IDSs: Study and analyze mechanisms for modeling the behavior of an IDS. Develop a model capable of detecting fraudulent alerts, produced by malicious IDSs. Design a model aimed at assigning an initial trust score to a new detection unit. Analyze the main optimization techniques for detecting distributed attacks and, as a result, provide a system to maximize the quality of the detection processes. Deploy and evaluate the reputation-based trust models to maximize the ratio in identifying false positives, because of malicious behavior. To this end, the following methodology has been conducted: Critical analysis of the major challenges to which the distributed attack detection systems are faced, above all the secure exchange of alerts. Identification of failures and opportunities in existing technologies for a proper detection of distributed attacks. Definition of trust models for securely exchanging alerts, as well as identifying malicious behavior of issuers reporting these alerts. Thorough evaluation of all the proposals made in this PhD Thesis, through conducting a pool of intensive simulations and experimental tests. In the next, we enumerate the main results obtained along the development of this PhD Thesis. Trust management in exchanging alerts based on public key cryptography. Proposal about the definition of X.509 certificates under certain requirements for a proper interoperability between the security domains of a PKI federation. Using this federation, a certification path building and validation algorithm is also proposed, as part of a Validation Service, to validate certificates in multi-domain environments. The evaluation of this proposal is conducted by analyzing 268,048 certificates of the most representative existing PKI federation, the Federal Bridge Certification Authority. Trust management based on reputation for detecting fraudulent alerts. This reputation system shapes the IDSs' behavior when generating and also sharing their alerts. This trust management is performed by two reputation-based mechanisms. One at intra-domain level, for checking the probability that the alerts shared between the IDSs of a security domain are true, and another at inter-domain level, with which to prove the trustworthiness of security and/or administrative domains when assessing the alerts exchanged between them as true. The evaluation of both models yields the possibility of detecting up to 95% false positives. Assignment of an initial trust score to a new detection unit. System with which to assess the confidence that can be deposited on a new detection unit. Above all, the new detection systems installed in the end-users' mobile devices. The evaluation of the proposed system proves the proper identification of malicious behaviors up to 30% mobile devices, thereby isolating them from that point regardless the fraudulent alerts they could produce. Adaptive system to maximize the alerts quality with the deployment of the best possible monitoring configuration. Reputation system based on the trust diversity by considering all the IDSs' reputation scores. This system is able to generate and deploy the best placement model of the IDSs aimed to maximize the confidence on their detection processes. Through the appropriate assessment, it is confirmed that the trust diversity, as a heuristic metric to measure the detection quality, provides the best placement model of the IDSs for collecting better evidences on their alerts, in order to detect distributed attacks more precisely.
2

Mejora de la eficiencia energética de sistemas de memoria transaccional hardware para arquitecturas multinúcleo

Gaona Ramírez, Epifanio 15 January 2016 (has links)
Tesis por compendio de publicaciones / Las actuales arquitecturas de procesador con múltiples núcleos de ejecución (arquitecturas multinúcleo o CMP) se presentan con un gran reto difícil de superar para la mayoría de los programadores. El clásico modelo de programación secuencial sigue siendo aplicable en un CMP, sin embargo mediante su empleo no se estarían aprovechando los múltiples núcleos de procesamiento de que disponen estos chips. Para poder extraer todo el rendimiento posible de un CMP es necesario recurrir a la programación paralela y al uso de varios hilos de ejecución. A través de ellos se consigue exprimir el paralelismo a nivel de hilo (TLP) que estas arquitecturas explotan. El modelo de Memoria Transaccional (TM) está siendo promovido actualmente como un nuevo paradigma mediante el cual los programadores pueden desarrollar sus aplicaciones de forma cercana al paradigma secuencial al que están acostumbrados, pero habilitando los beneficios del uso de varios núcleos de ejecución. La identificación en el código de las secciones críticas es la única condición nueva que debe satisfacerse. Enmarcando estas secciones en bloques de código denominados transacciones, el sistema de Memoria Transaccional (TM) se encarga de asegurar las propiedades de atomicidad y aislamiento a pesar de la ejecución de los mismos en paralelo. Todo ello de forma totalmente transparente al programador, que no debe preocuparse por los problemas típicos achacados al uso de los cerrojos clásicos (interbloqueo, convoying e inversión de prioridades). En esta tesis doctoral se presta atención a las implementaciones hardware del modelo de Memoria Transaccional (HTM). Por otra parte, la búsqueda del rendimiento de forma aislada ha dejado de ser la principal motivación en el desarrollo de procesadores para pasar a serlo el rendimiento por watio. El rendimiento sigue siendo importante pero no a costa de un consumo desmesurado de energía. El objetivo de esta tesis es abordar el diseño de sistemas HTM teniendo en cuenta tanto rendimiento como consumo de energía. Para ello, se analiza con detalle en primer lugar el rendimiento y consumo energético que las implementaciones hardware actuales ofrecen (eager-eager y lazy-lazy). Los resultados de este estudio comparativo permiten identificar las ventajas e inconvenientes de cada uno de estos sistemas de memoria transaccional y son el punto de partida para proponer técnicas encaminadas a mejorar los aspectos problemáticos que cada sistema presenta. Por un lado, para los sistemas eager-eager se ha observado que una fracción importante de la energía consumida es debida a los conflictos que surgen entre transacciones. Se han desarrollado, implementado y evaluado diversas políticas que permiten serializar en tiempo de ejecución transacciones que entran en conflicto sólo cuando éste se produce sin que se produzcan ciclos de que den lugar a interbloqueos. El resultado final ha sido un sistema eager-eager más eficiente desde el punto de vista del consumo de energía sin pérdida de prestaciones. Por otro lado, el principal problema en los sistemas lazy-lazy se encuentra en la etapa de confirmación de las transacciones, más concretamente en las operaciones que son necesarias para garantizar que una transacción ha finalizado sin conflictos. Para solucionarlo se ha implementado y evaluado una técnica hardware que permite acelerar, mejorar la eficiencia energética y simplificar la principal propuesta diseñada hasta ahora en sistemas HTM escalables. Concretamente se ha propuesto emplear una red específica de bajo coste y un protocolo implementado en hardware. A lo largo de la tesis se hace uso de un entorno de desarrollo y pruebas ampliamente aceptado, conformado por la herramienta de simulación SIMICS+GEMS y la suite de benchmarks STAMP. Los resultados de esta tesis ofrecen una visión amplia sobre el compromiso entre rendimiento-energía de sistemas HTM sofisticados. / Improving Energy Efficiency in Hardware Transactional Memory Systems for Multicore Architectures Abstract Current microprocessor architectures with multiple execution cores (Chip MultiProcessors or CMP) present a great challenge difficult to overcome for most programmers. Although, the classic model of sequential programming remains applicable in CMPs, developing applications in such way would hinder taking advantage of the multiple processor cores available in these chips. To extract all the possible performance of a CMP it is necessary to use parallel programing and multiple threads, through which we are able to squeeze the thread-level parallelism (TLP) that these architectures exploit. Transactional Memory (TM) is currently being promoted as a new paradigm that provides applications’ programmers a programming model that is closest to the sequential paradigm they are familiar with, and at the same time enabling the benefits of using multiple execution cores. The identification of critical sections in code is the only new condition that must be satisfied. By framing these sections in blocks of code called transactions, the underlying Transactional Memory (TM) system is able to ensure the atomicity and isolation properties despite transactions are executed in parallel. All of this is completely transparent to the programmer, who should not worry about the typical problems blamed on the use of classical locks (deadlock, convoying and priority inversion). This thesis focuses on hardware implementations of the Transactional Memory model (HTM). Moreover, the pursuit of performance in isolation is no longer the main motivation in the development of processors, and nowadays, performance per watt constitutes the new target. Performance remains important but not at the cost of excessive energy consumption. The goal of this thesis is to address the design of HTM systems considering both performance and energy consumption. To do so, we first analyze in detail performance and power consumption that current HTM implementations offer (eager-eager and lazy-lazy). The results of this comparative study allow us to identify the benefits and drawbacks of these two transactional memory systems, and they are the starting point to propose techniques aimed at alleviating the main problems each system has. In eager-eager systems, we have noticed that a substantial fraction of the energy consumed is due to conflicts between transactions. In order to minimize such conflicts, we have developed, implemented and evaluated several policies that identify and serialize transactions that will probably conflict, all of this avoiding cycles leading to potential deadlocks. The final result has been a more efficient eager-eager system from the energy consumption point of view without suffering any performance loss. On the other hand, the main problem in the lazy-lazy systems is at the commit stage of the transactions, specifically in the operations that are necessary to ensure that a transaction can be completed without any conflicts. To solve this, we have implemented and evaluated a hardware technique that speeds up performance, improves energy efficiency and simplifies the main proposal designed so far in scalable HTM systems. In particular, we have proposed to use a low cost specific network and a protocol implemented in hardware that uses it. Throughout this thesis we make use of a widely accepted development and evaluation environment, consisting in the simulation tool known as SIMICS+GEMS and the STAMP benchmarks suite. The results reported in this thesis provide a broad view of the trade-off between performance and energy consumption in sophisticated HTM systems.
3

Framework basado en el estándar de calidad del software ISO/IEC 25000:2005 (SQuaRE) para la evaluación de la calidad de las ontologías

Duque Ramos, Astrid 21 January 2015 (has links)
Tesis por compendio de publicaciones / Objetivos El objetivo general de esta tesis es crear un método de evaluación de la calidad de ontologías, adaptando el estándar de calidad del software ISO/IEC 25000:2005 Software Quality Requirements and Evaluation SQuaRE, que permite la trazabilidad entre requisitos y métricas de calidad de una ontología, con el fin de valorar de forma objetiva y reproducible sus características, y brindar así un mecanismo de asistencia a los usuarios y desarrolladores para la toma de decisiones informadas. Metodología 1. Se analiza el estado del arte relacionado con ontologías, lenguajes de representación de ontologías, evaluación de ontologías, y estándares de calidad del software y métricas de software. 2. Se diseña el framework OQuaRE para evaluación de la calidad de ontologías con base en SQuaRE. Para ello se definen (1) el modelo de calidad; (2) las métricas de calidad; (3) las asociaciones entre métricas y subcaracterísticas de calidad; y (4) la escala para las métricas, en el rango [1-5]. 3. Aplicación del framework a ontologías de diferentes dominios en el ámbito de ontologías biomédicas. 4. Validación del framework a través de la comparación de sus resultados con resultados de otros métodos de evaluación de ontologías como Gold Standard, Competency Questions, evaluación humana y evaluación de versiones. 5. Evaluación del framework por un grupo de expertos externos. Resultados 1. Un framework para evaluar la calidad de ontologías OQuaRE, el cual se compone de: (1) el modelo de calidad de ontologías que consta de un grupo de características y subcaracterísticas de calidad; (2) un conjunto de métricas de calidad; (3) las asociaciones subcaracterística-métrica; (4) las tablas de la escala de valores [1-5] para las métricas de calidad. 2. La aplicación del framework a un conjunto de ontologías de diferentes dominios con el fin de (1) identificar la capacidad de OQuaRE para detectar diferencias entre una ontología original y su versión normalizada; (2) identificar las fortalezas y debilidades de un conjunto de ontologías de unidades de medida, en términos de características y subcaracterísticas de calidad de OQuaRE; (3) identificar la utilidad de OQuaRE para evaluar métodos y guías de buenas prácticas de construcción de ontologías; (4) evaluar el impacto de la evolución de una ontología en su calidad identificando el efecto de los cambios entre versiones; (5) las características, subcaracterísticas y métricas aplicables a las ontologías financieras. Conclusiones OQuaRE es un framework de evaluación de ontologías que integra las medidas de varios criterios de la ontología y las agrupa en un modelo de calidad basado en el estándar de calidad del software SQuaRE ISO 25000:2005. OQUaRE evalúa la calidad de las ontologías de manera objetiva y reproducible, e incluye trazabilidad entre características, subcaracterísticas y métricas, partiendo desde un alto nivel, hasta llegar a un nivel más bajo de granularidad. OQuaRE contribuye a la toma de decisiones informadas porque presenta las fortalezas y debilidades de una ontología en términos de características y subcaracterísticas de calidad. OQuaRE sirve como base para evaluar la estructura de una ontología, desde su aspecto funcional hasta su aspecto más técnico, y puede ser de aplicación para ontologías de diferentes dominios. OQuaRE es un framework adaptable que permite incorporar nuevas métricas y asociaciones subcaracterística-métrica y crear o redefinir las escalas para cada repositorio particular. Las asociaciones característica-subcaracterística-métrica permiten un mejor entendimiento de las conexiones entre las características de una ontología y los criterios de calidad, además de una visión más clara de las métricas y su utilidad en la evaluación de las ontologías. / Objectives The main goal of this thesis is to create a method for the evaluation of the quality of ontologies by adapting the software product quality standard ISO / IEC 25000: 2005 known as SQuaRE (Software Quality Requirements and Evaluation), which enables the traceability between requirements and quality metrics of an ontology, in order to evaluate ontologies in an objective and reproducible manner, and providing a mechanism for assisting users and developers making informed decisions. Methodology 1. Analysis of the state of the art in ontology representation, ontology languages, ontology evaluation, standards of software quality and software metrics. 2. Definition of the OQuaRE framework for ontology quality evaluation, based on SQuaRE, consisting (1) a quality model based on characteristics and sub-characteristics; (2) quality metrics; (3) associations between metrics and sub-characteristics; and (4) scale of the metrics’ scores to the range [1-5]. 3. Application of the OQuaRE framework to different domains ontologies (biomedical ontologies, cell types, units of measure). 4. Validation of the framework by comparing its results with those obtained by other methods of ontology evaluation such as Gold Standard, Competency Questions, human manual evaluation and evaluation of ontologies versions. 5. Evaluation of the method by a group of external experts. Results 1. A framework for evaluation the quality of ontologies OQuaRE, which consists in (1) the ontology quality model, with a set of quality characteristics and sub-characteristics; (2) a set of quality metrics; (3) list of associations subcharacteristic-metric; (4) the scales for transforming the scores of the metrics to the [1-5]. 2. The application of the framework to a set of ontologies from different domains has permitted to (1) identify the OQuaRE capacity to detect differences between different ontologies; (2) identify the strengths and weaknesses of sets of ontologies of the same domain, in terms of quality characteristics and sub-characteristics; (3) identify the usefulness of OQuaRE to evaluate methods and best practice guidelines for building ontologies; (4) evaluate the impact of the evolution of an ontology in its capacity to identify the effect of changes between versions; and (5) identify a set of characteristics, sub-characteristics and metrics useful for financial ontologies. Conclusions OQuaRE is a framework for evaluating ontologies which integrates several measures and criteria of ontology quality and groups them into a quality model based on the software quality standard ISO/IEC 25000: 2005 SQuaRE. OQUaRE evaluates the quality of ontologies in an objective and reproducible way, and includes traceability between characteristics, sub-characteristics and quality metrics, which permits to analyse the properties of an ontology at different granularity levels. OQuaRE contributes to informed decision making because it identifies the strengths and weaknesses of an ontology in terms of quality characteristics and subcharacteristics. OQuaRE serves as a basis for assessing the structure of an ontology, ranging from functional aspects to technical ones, and it can be applied for ontologies from different domains. OQuaRE is a customisable framework that allows to incorporate new metrics and associations subcharacteristic-metric, to create or redefine scales for each community. The associations Feature-subcharacteristic-metric enable a better understanding of the links between the characteristics of an ontology and quality criteria, along with a clearer view of the metrics and their useful in evaluating ontologies.
4

An approach for model-driven data reengineering = Un enfoque de reingeniería de datos dirigido por modelos

Bermúdez Ruiz, Francisco Javier 22 January 2016 (has links)
Objetivos Esta tesis se centra principalmente en la aplicación de técnicas MDE a un proceso de reingeniería de datos. En concreto, analizamos en que medida el uso de modelos facilita la implementación de una mejora de la calidad en los datos de un sistema legado mediante la conversión de esquemas, que es un escenario común de modernización. La conversión de esquemas implementada en nuestra solución aborda la inferencia de restricciones de integridad referencial (declaradas en base de datos como claves ajenas) junto con la comprobación y corrección de los niveles de normalización en un esquema de datos. Se deben proporcionar diferentes técnicas para el descubrimiento de claves ajenas para obtener resultados más fiables. Además, se ha proporcionado automatización al proceso de migración mediante una herramienta software que soporta la definición y ejecución de procesos de migración y que ha sido validada através tomando como caso de estudio nuestro proceso de reingeniería de datos. Por otro lado, las soluciones MDE requieren de la integración con herramientas de terceros, en nuestro caso para la automatización del proceso de normalización. Este requisito nos condujo a desarrollar una solución arquitectónica para facilitar la interoperabilidad de herramientas y poder así integrar otras herramientas en nuestro proceso MDE. Podemos identificar los siguientes objetivos para la tesis: • Una implementación de un proceso de reingeniería de datos mediante el uso de técnicas MDE. La herramienta soporta la comprobación automática del nivel de normalización de la base de datos y su corrección. • Uso de diferentes estrategias para la inferencia de claves ajenas en la etapa de restructuración del proceso de reingeniería. • La construcción de una herramienta capaz de automatizar el desarrollo de procesos de reingeniería basados en modelos. • Abordar la interoperabilidad basada en modelos mediante la construcción de un puente bidireccional entre herramientas. Metodología Se ha aplicado la metodología DSRM (Design Science Research Methodology) que consiste en 6 actividades: (1) identificación del problema y motivación, (2) definición de los objetivos de la solución, (3) diseño y desarrollo, (4) demostración, (5) evaluación y (6) conclusiones y comunicación. Resultados Describimos a continuación las contribuciones de la tesis organizadas según los objetivos identificados. Proceso de Reingeniería de Datos Hasta nuestro conocimiento, este trabajo es una de las primeras contribuciones proporcionando una valoración del uso de MDE in la reingeniería de datos. El enfoque es validado mediante un sistema legado real, ampliamente usado en la industria sanitaria en Canadá: OSCAR. Hemos contrastado además nuestro trabajo con enfoques tradicionales de reingeniería de datos, y hemos identificado algunos beneficios e inconvenientes de aplicar MDE, lo que nos permite dar una valoración de en qué medida MDE es aplicable en estos escenario Estrategias de Descubrimiento de Claves Ajenas Se ha abordado el problema de la inferencia de claves ajenas y la combinación de diferentes técnicas de reingeniería. Herramienta de Migración Encontramos tres contribuciones en la herramienta: (1) es la primera propuesta que ejecuta procesos basados en modelos mediante la generación de tareas automáticas y manuales que son integradas en un entorno de desarrollo; (2) es una de las primeras experiencias mostrando cómo una solución MDE puede ser usada para construir herramientas de soporte para la definición y ejecución de procesos, así como la gestión de tareas de migración; (3) se presenta una solución para el soporte de procesos de migración implementados con tecnologías MDE. Interoperabilidad de Herramientas Se ha abordado la implementación de una arquitectura MDE orientada a conectar herramientas. Se ha contribuido además a analizar y discutir a cerca como MDE es capaz de tratar diferentes escenarios de interoperabilidad. / Goals This thesis is mainly focused on applying MDE techniques to a data reengineering process. In particular, we analyse to what extent the use of models facilitates the implementation of the data quality improvement of a legacy system by means of a schema conversion, which is a common data modernisation scenario. The schema conversion implemented in our approach addresses the elicitation of implicit referential integrity constraints (declared in database by foreign keys) along with checking and fixing the appropriate normalisation level in a schema. Several techniques for discovering foreign keys should be combined in order to obtain more reliable results. Furthermore, an automation of migration processes is tackled. We have built a tool that supports the definition and enactment of migration processes, which have been validated for the data migration case study. In addition, MDE solutions normally require the integration with a third-party tool which allows an automatic normalisation step. This requirement leads us to develop an architectural solution to ease tool interoperability and then to integrate other useful tools (from the data engineering and requirement areas) to the migration process here proposed. Ee can therefore infer the following objectives of this thesis: • An implementation of a data reengineering process by using MDE techniques. An automatic checking of the database normalisation level in the relational schema is supported. • Using of different strategies in order to elicit foreign keys for the restructuring stage of the process. • Building a tool able to automate the development of model-driven reengineering processes. • To tackle the MDE-base tool interoperability through the building of some bidirectional bridge. Methodology We have followed the design science research methodology (DSRM) which consists of six activities: (1) problem identification and motivation, (2) define the objectives of a solution, (3) design and development, (4) demonstration, (5) evaluation and (6) conclusions and communication. Results We shall describe next the contributions of this thesis. They will be categorised according to the goals identified. Data Reengineering Process To the best of our knowledge, this work is one of the first contributions to provide an assessment of the use of MDE in data reengineering. The approach is showcased by means of an information system that is widely used in the healthcare industry in Canada: OSCAR. We have contrasted our work with the tasks usually performed in traditional approaches and have identified some benefits and drawbacks of applying MDE techniques, which could enable us to assess to what extent MDE could be applicable to other problems. Strategies of FK Discovering We devise a process for reengineering legacy information systems with respect to establishing referential integrity constraints and combining existing reengineering methods. Migration Tool There are three contributions in the tool proposed: (1) it is the first proposal that enacts process models by executing automated tasks and generates programming manual tasks which are integrated into a task management tool; (2) our work is one of the first experiences showing how an MDE approach can be used to build a tool supporting software development processes from the definition of software processes to the management of the tasks to be performed by managers and developers; (3) we present a solution to support migration processes that have been implemented with MDE technologies. Tool Interoperability We have devised a model-based architecture aims to bridge the gap between tools. The MDE techniques have proven useful to ease and extend the interoperability capabilities of DB-Main. We contribute to analyse and discuss through this case study how MDE can address several interoperability scenarios.
5

A novel, identity-based network architecture for the future internet= Una arquitectura de red basada en identidad para la internet del futuro

Martínez Juliá, Pedro 18 December 2015 (has links)
Con el trabajo realizado en la presente tesis hemos definido una nueva arquitectura de red que presenta un modelo de red diferente para la Internet del Futuro (Future Internet, FI). Hemos abordado los problemas encontrados en el modelo de red actual mediante la introducción del concepto de identidad, entendida como un conjunto de atributos, en las capas intermedias de la red. Nuestra propuesta radica en utilizar una capa de identidad que permita a los objetos de red (network objects) controlar su participación en el mundo digital, creando un panorama, en la esfera de las comunicaciones, que es singular, único y optimizado para cada entidad de red, dando lugar a un plano de identidad que permita a las entidades encontrarse siguiendo un modelo identidad-a-identidad que permite considerar todos los aspectos de las comunicaciones: “con quién estoy hablando”, la confianza que tengo, o incluso la localización donde está teniendo lugar la comunicación. Estos atributos afectan tanto a la seguridad como a la privacidad y están relacionados con la identidad de los participantes. En nuestro trabajo de investigación hemos ahondado también en la discusión acerca de la separación de identificadores y localizadores, extrayendo los requisitos más importantes y generalizando este concepto en la dirección de desacoplar los procesos de identificación y localización. Manteniendo el mismo objetivo, separar la identificación de los elementos del direccionamiento de hosts en la red, la arquitectura propuesta enfatiza el proceso de identificación de forma independiente a los mecanismos subyacentes que se utilizan para direccionar los mensajes en la red. Además, nuestro diseño se ve influenciado por la necesidad de un mecanismo integrado para el descubrimiento de entidades en FI que no requiera la interacción humana, así como la necesidad de una adaptación dinámica de las comunicaciones a los entornos cambiantes en los que tienen lugar. Con el fin de proveer los bloques funcionales apropiados, que incluyan las funcionas necesarias que se han comentado hasta ahora, partiendo de la base de dotar al sistema de la capacidad de evolución y manteniendo desacoplados los procesos de identificación y localización, hemos definido los objetivos principales de la tesis de la siguiente forma: Diseñar, analizar y validar una arquitectura de red altamente modular y evolutiva para la Internet del Futuro, que abstraiga los extremos de comunicación de hosts a objetos de red arbitrarios mediante el uso de sus identidades (conjuntos de atributos) como mecanismo que les permita descubrir, direccionar y comunicarse entre ellos de forma dinámica, inequívoca, segura y privada, en un entorno heterogéneo y cambiante. Para alcanzar estos objetivos hemos diseñado un conjunto de bloques funcionales que trabajan conjuntamente, formando una arquitectura de red completa, o por separado, para proveer cualidades adicionales a otras arquitecturas. Estos componentes son el Domain Trusted Entity Infrastructure (DTEi), el Identity-Based Network Protocol (IBNP), el Ontology-based Distributed Information Network (ODIN), y el Identity-Based Control Plane (IBCP). Aunque estos bloques funcionales están estrechamente relacionados entre sí y acoplados hasta cierto punto, mantienen su independencia para proveer su función de red sin necesidad de desplegar otro componente. Para finalizar, hemos validado las distintas soluciones diseñadas por medio de modelos analíticos y prototipos implementados sobre plataformas reales, evaluando sus funcionalidades, seguridad, factibilidad y rendimiento. Además, hemos integrado las funciones que ofrece nuestra arquitectura con otras arquitecturas de red, particularmente HIMALIS y MOFI, siendo ambas arquitecturas destacadas para FI que a su vez representan dos visiones diferentes de la evolución de la red. Dichas integraciones nos han permitido demostrar la utilidad de nuestros diseños, estableciendo interrelaciones sólidas e identificando tópicos abiertos de investigación para el futuro. / A Novel, Identity-Based Network Architecture for the Future Internet Abstract With the work carried out in this thesis we have defined a new network architecture that provides a new network model for the Future Internet (FI). We have addressed the problems found in the network model found in the current Internet by introducing the concept of identity, seen as a set of attributes, to the middle layers of the network. We propose to use an identity layer that enables network entities (objects) to control their involvement in the digital world, creating a view in the communication sphere which is singular, unique, and optimized for every network entity, thus building an identity plane that allows entities to address each other in an identity-to-identity approach that considers all aspects of communications: “to who I am talking to”, the trust I have, or even the location where this is taking place. These attributes affect security and privacy and are related to the identity of the participants. During our research we also delve into the discussion about the separation of identifiers and locators, extracting the crucial requirements behind such approach and generalize the target as decoupling identification and location processes. The objective is the same, to separate node identification from host addressing in the network, but our architecture emphasizes the identification process itself, regardless of the underlying mechanisms to address information among network entities. Moreover, our design is influenced by the need for a better discovery mechanism in the FI that does not require human interaction, as well as the need of a dynamic adaptation of communications to the changing environments where they are taking place. Targeting the provision of proper functional blocks with the necessary functions stated so far, and with the basis established in the ability of evolution as well as the decoupling of identification and location, we define the main objectives of this thesis as follows: To design, analyze, and validate a highly modularized and evolvable network architecture for the Future Internet that abstracts the communication endpoints from hosts to arbitrary network objects by using their identities, seen as attribute sets, as the mechanism to enable them to dynamically discover, address, and communicate each other in an unequivocal, secure, and private way over an heterogeneous and changing environment. In order to achieve such objectives we designed a set of functional blocks that are able to work together, forming a complete network architecture, or separately to provide some additional qualities to other architectures. These components are the Domain Trusted Entity Infrastructure (DTEi), the Identity-Based Network Protocol (IBNP), the Ontology-based Distributed Information Network (ODIN), and the Identity-Based Control Plane (IBCP). Although these functional blocks are closely related to each other, as well as coupled to some extent, they retain their independence so each of them is able to provide its target network function without needing to fully deploy any other. Finally, we validated the designed approaches by means of analytical models and prototype implementations, evaluating their functionality, security, feasibility and performance. Moreover, we have integrated the functions provided by the architecture we designed with other network architectures, particularly HIMALIS and MOFI, which are outstanding architectures for the FI, representing two different visions of the evolution of the network. These integrations allowed us to demonstrate the usefulness of our research results, establishing strong interrelations and identifying open research topics for the future.
6

Authorization and trust management in distributed systems based on the semantic web = Gestión de la autorización y la confianza en sistemas distribuidos aplicando la web semántica

Bernal Bernabé, Jorge 21 December 2015 (has links)
Tesis por compendio de publicaciones / Motivación y Objetivos Cualquier sistema distribuido como Cloud Computing se enfrenta a diferentes retos de seguridad, como son la autenticación, autorización, privacidad o la gestión de la confianza. Sin embargo, se precisan sistemas de autorización y confianza avanzados y con altos niveles de expresividad que hayan sido diseñados expresamente para Cloud Computing. La gestión de la seguridad en sistemas distribuidos como Cloud Computing puede llevarse a cabo, mediante el uso de políticas y reglas de seguridad aplicadas sobre modelos de sistema y seguridad enriquecidos semánticamente. El enfoque de la Web Semántica permite realizar razonamiento deductivo y procesos de inferencia sobre los modelos, permitiendo deducir conclusiones de seguridad que a su vez pueden ser usadas para tomar decisiones de autorización y confianza. Además de la gestión de la autorización de los recursos de forma independiente por cada tenant, los clientes en el mismo cloud pueden necesitar colaborar entre ellos para satisfacer necesidades avanzadas de sus servicios, lo que requiere de modelos de autorización y confianza intra-cloud para gestionar tales colaboraciones. Los usuarios demandan interacciones entre diferentes clouds para realizar operaciones tales como migraciones de datos y servicios. Se necesitan nuevas soluciones para permitir a los proveedores de servicios de cloud (CSPs) que puedan interactuar de forma segura estableciendo federaciones de clouds, paradigma conocido como Intercloud. En este sentido, el análisis de la seguridad y la confianza que puede llegar a ofrecer un proveedor de servicios de cloud es un campo de investigación que despierta un elevado interés. Los clientes y CSPs podrían beneficiarse de un sistema de ayuda a la decisión relativo a seguridad y confianza en entornos Intercloud. Este sistema podría deducir información y tomar decisiones en consecuencia, tales como rechazar o evitar determinadas interacciones entre CSPs o servicios. El paradigma del Internet de las Cosas requiere de modelos adaptados para la gestión y cuantificación de la confianza con el fin de que dispositivos desconocidos a priori puedan interactuar entre ellos de forma segura y confiable. Los modelos de control de acceso en IoT deben ser más livianos para poder tratar las comunicaciones directas entre dispositivos (a veces con características hardware reducidas), y tener en cuenta los valores de confianza de los dispositivos antes de realizar las transacciones. Dados los retos de investigación relativos a gestión de la confianza y la autorización en sistemas distribuidos destacados anteriormente, los principales propósitos de la presente tesis doctoral pueden ser son los siguientes: • Analizar y diseñar un modelo de autorización, altamente expresivo, diseñado especialmente para Cloud Computing que se apoye en técnicas de la Web Semántica. • Analizar y diseñar las diferentes relaciones de confianza que puedan establecerse en Cloud Computing entre los diferentes tenants, incrementando de esta forma la seguridad del cloud. • Analizar el estado del arte relativo a seguridad y confianza en sistemas distribuidos, Cloud Computing y especialmente en Intercloud. • Analizar los requerimientos de seguridad en Cloud Computing definiendo en consecuencia una taxonomía y ontología completas para el Intercloud. • Diseñar, implementar y validar un sistema de ayuda a la decisión relativo a seguridad y confianza que se apoye en técnicas de la Web Semántica con el fin de mejorar la toma de decisiones, cuantificando expectativas de seguridad e índices de confianza sobre CSPs. • Diseñar, implementar y validar un modelo de confianza para el Internet de las Cosas (IoT), que pueda ser aplicado junto a un sistema de autorización que tenga en cuenta los índices de confianza calculados por el modelo. Metodología La presente tesis doctoral vio sus comienzos con un estudio del estado del arte que nos llevó a empezar a definir modelos semánticos de sistemas de información y de seguridad con el fin de realizar razonamiento sobre dichos modelos usando políticas enriquecidas semánticamente. Concretamente, descubrimos que había una carencia de modelos de autorización altamente expresivos haciendo uso de la Web Semántica que pudieran gestionar de forma adecuada la complejidad de sistemas distribuidos como Cloud Computing. Los modelos de autorización actuales para Cloud Computing, aunque eficientes, están condicionados debido a sus posibilidades de expresividad semántica y, como consecuencia, limitados en cuanto a capacidades de autorización. Después del estudio de aplicabilidad de las técnicas de la Web Semántica para autorización en Cloud Computing, propusimos un modelo de autorización (Capítulo 1), basado en la Web Semántica, por lo que permite realizar razonamiento e inferencia, otorgando un mecanismo muy potente para tomar decisiones de control de acceso. Los tenants deberían poder establecer alianzas y coaliciones federadas para sacar máximo partido de sus servicios. Este escenario ocasiona diferentes problemas y retos de seguridad como la gestión del control de acceso intra-cloud, ya que deberían disponer de medios para restringir y definir qué información estará disponible para con otros tenants que compartan la misma infraestructura cloud subyacente. Para llenar este vacío, realizamos un análisis y estudio de los tipos de colaboraciones, que consideramos más importantes, y que podrían llegar a ocurrir entre los tenants de un mismo cloud, que dio como resultado una taxonomía que define los diferentes tipos de relaciones de confianza entre tenants (Capítulo 2). Asimismo, además de las relaciones intra-cloud entre tenants, los clientes y proveedores de cloud están empezando a requerir escenarios incipientes de Intercloud, donde diferentes clouds interaccionan más allá de un único proveedor. Aunque existen algunos resultados de investigación para gestión de Intercloud, hay muy pocas propuestas relacionadas con la seguridad y los aspectos de confidencialidad en el Intercloud. Con el fin de llenar este vacío, realizamos un estudio riguroso del estado del arte en el Intercloud, analizando los aspectos de seguridad y confianza en este entorno distribuido y nos centramos en una ontología destinada a definir formalmente los aspectos de seguridad modelados en una evaluación de seguridad Intercloud (Capítulo 3). Por último, hemos querido abordar el control de acceso y gestión de la confianza no sólo en los sistemas distribuidos más centrados en plataforma como Cloud Computing, sino también en otros escenarios más descentralizados M2M. Hemos diseñado un mecanismo de seguridad, aprovechando un sistema de autorización IoT ya existente llamado DCapBAC, que mejora dicho sistema de autorización para que tenga en cuenta valores de confianza calculados por el modelo de confianza (Capítulo 4). Resultados Los primeros resultados derivados del análisis y diseño de un sistema de control de acceso para Cloud Computing se presentaron en ``International Conference on Security and Cryptography'' (SECRYPT), en el artículo ``Towards an Authorization System for Cloud Infrastructure Providers''. La propuesta se basa en la Web Semántica, que permite inferir nuevos conocimientos que permiten soportar diferentes características avanzadas de autorización, superando ciertas carencias de expresividad de modelos de autorización predecesores, como el RBAC, hRBAC, cRBAC y HO. Seguidamente realizamos una investigación minuciosa de los diferentes tipos de relaciones de confianza que pueden establecerse entre tenants en el cloud. El resultado quedó reflejado en el artículo ``Taxonomy of trust relationships in authorization domains for Cloud Computing'', que fue publicado en la revista The Journal of Supercomputing. El análisis realizado concluyó con la descripción formal de las diferentes relaciones de confianza en Cloud Computing, permitiendo la definición de diferentes acuerdos de colaboración en diferentes escenarios cloud. Los resultados de investigación sobre Intercloud se muestra en el artículo ``Intercloud Trust and Security Decision Support System: an Ontology-based approach'', publicado en la revista Journal of Grid Computing. En este trabajo analiza las diferentes áreas de seguridad, propiedades y métricas que pueden ser necesarias en la evaluación de la seguridad de un CSP. Estos conceptos se han modelado en la ontología SOFIC ofreciendo un alto grado de interoperabilidad en escenarios Intercloud, y que se puede tomar como punto de partida para cuantificar expectativas de seguridad y valores de confianza de servicios y CSPs. Por último, en relación con la gestión de la confianza en IoT, nuestros resultados de investigación han sido publicados en la revista Soft Computing, en un artículo con el título ``TACIoT: multidimensional trust-aware access control system for the Internet of Things''. El artículo proporciona un modelo de confianza para IoT y mejora el sistema de control de acceso DCapBAC para que pueda tener en cuenta los valores de confianza calculados por el modelo tomar decisiones de autorización en consecuencia. / Motivation and Goals Cloud Computing, like any other kind of distributed system, has to face different challenges regarding security, such as authorization and trust management. However, there is a lack of advanced and high expressive authorization and trust models specially meant for this emerging parading. .Security management in distributed systems like Cloud Computing, can be carried out by means of applying security policies and rules over system and security models enriched semantically. The Semantic Web approach allows performing deductive reasoning and inference processes to come up with meaningful security conclusions. In addition to the management of access control for each tenant, cloud tenants within the same cloud may need to collaborate to meet client demands, which requires new authorization and trust relationships models to manage such intra-cloud collaborations. Customers’ demands to interactions across clouds to be able to migrate data and applications across different clouds in a reliable and secure way. This situation creates a need for new solutions that allow different Cloud Service Provider (CSP) to be interoperable with each other in a secure manner, coming up with federations of clouds, also known in the literature as Intercloud. In this sense, the analysis of the security and trust of a given CSP in order to establish reliable collaborations is an open research field that sparks a lot of interest. Additionally, in this regard, clients and CSPs could also take advantage of a trust and security decision support system for the Intercloud in order to make security decisions accordingly, based on the ontology, such as dismiss or avoid interactions with certain CSPs or services based on these deductions. The Internet of Things paradigm requires adapted trust quantification models in order to provide a reliable environment, thereby enabling unknown smart objects to interact each other in a trusted way. Access control models in IoT should be more lightweight to address the direct communication requirements of constrained devices, taking into account target devices' trust values prior any transaction. Due to the challenges of trust management and authorization in distributed environments highlighted above, the general objectives of this PhD Thesis, the concrete goals pursued within this thesis, are the following: • Analyse and design a novel and high expressive authorization model specially meant for Cloud Computing relying on Semantic Web technologies. • Analyse and design the trust relationships in Cloud Computing between cloud tenants in order to establish a reliable environment. • Analyse the state of the art of security and trust in distributed systems, Cloud Computing and the Intercloud. • Analyse the security requirements in Cloud Computing and define accordingly a full Intercloud security taxonomy and ontology. • Design, implement and validate a trust and security decision support system, relying on Semantic Web techniques, in order to assist in the Intercloud security decision making process, quantify security expectations and trustworthiness about CSPs. • Devise and implement an advanced trust model for Internet of Things to allow making authorization decisions based on this quantified trust values. Methodology This PhD Thesis started by performing a survey that allowed us to start defining system and security models and performing reasoning over them using semantic policy rules, coming up with a powerful mechanism to manage the security of distributed systems. Concretely, we discovered that there was a lack of a high expressive authorization model based on the Semantic Web, that would be able to handle the complexity of distribute systems like Cloud Computing. Current authorization models for distributed systems are efficient, but at the same limited by their poor semantics, and therefore, by their limited authorization features. After studying the applicability of Semantic Web techniques for authorization in Cloud Computing, we proposed an authorization model (Chapter 1) that is based on the Semantic Web, so that it enables performing inference reasoning to come up with meaningful security conclusions that can be used to make authorization decisions. Cloud tenants within the same cloud can collaborate each other to establish alliances and set up coalition agreements. Nonetheless, these agreements raise new security challenges, such as intra-cloud access control management. To bridge this gap, we performed an analysis and study of the different kind of collaborations that may occur among cloud tenants, coming up with a taxonomy defining different levels of trust relationships among customers of the cloud (Chapter 2). Furthermore, in addition to intra-cloud relationships among tenants, customers and CSPs are starting to require Intercloud scenarios where different clouds have to interact each other beyond one single cloud domain. Although there are some proposals to manage the Intercloud, there are still few approaches dealing with the associated new security and trust challenges in such a federated environment. In order to address this problem, we made a deep analysis of the state of the art in the Intercloud, analyzing the security and trust in this distributed environment. As a result we came up with an ontology aimed to formally describe the security aspects that are subject to be modelled in an Intercloud security assessment (Chapter 3). The ontology is based on security standards and it has been tailored extensible to cope with the security requirements of different Intercloud scenarios. Finally, we wanted to address the access control and trust management challenge not only in enterprise-centric distributed systems like Cloud Computing, but also in more decentralized ones. In this sense we designed a security mechanism to leverage an already existing IoT authorization system called DCapBAC, with our novel trust model that takes into account not only reputation, as it is commonly employed in traditional peer to peer (P2P) scenarios, but also some other advanced aspects to quantify trust (Chapter 4). Results The first results derived from the analysis and design of a semantic-aware access control system for Cloud Computing was presented in the International Conference on Security and Cryptography (SECRYPT), in a paper entitled ``Towards an Authorization System for Cloud Infrastructure Providers''. The proposal is based on Semantic Web technologies and allows inferring new knowledge and supporting different authorization features such as role based access control (RBAC), hierarchical RBAC (hRBAC), conditional RBAC (cRBAC) and hierarchical objects (HO). Next, we investigated further into the different kinds of trust relationships that can occur in Cloud Computing, and the outcome was reflected in the article entitled ``Taxonomy of trust relationships in authorization domains for Cloud Computing'', which was published in The Journal of Supercomputing. The accomplished analysis ended up with a formal description of the different trust relationships in Cloud Computing, enabling the definition of different collaboration agreements in different scenarios. The research carried out regarding trust and security in the Intercloud is shown in the paper ``Intercloud Trust and Security Decision Support System: an Ontology-based approach'', which published in the Journal of Grid Computing. In this work we have analyzed and identified the security areas, properties and metrics required when assessing the security of a CSP. These concepts have been modeled in the SOFIC ontology to support a high degree of interoperability in the Intercloud. Besides, the ontology can be taken as a starting point to quantify expectations and trust values of cloud services as well as supporting CSPs and tenants in the Intercloud security decision making process. Finally, regarding the trust model for the Internet of Things, our research results were published in the Soft Computing journal, in a paper entitled ``TACIoT: multidimensional trust-aware access control system for the Internet of Things''. The paper provides a trust model leveraging the DCapBAC access control system to take into account devices' trust values to make authorization decisions accordingly.
7

Entorno para la inteligencia de negocio basada en tecnologías semánticas

Esteban Gil, Ángel 22 December 2015 (has links)
Objetivos: La Inteligencia de Negocio (IN) requiere de la integración de diversas fuentes de datos que se suelen encontrar en las organizaciones y en sus entornos. El conocimiento generado por estas organizaciones se encuentra distribuido en sistemas heterogéneos o está en formatos en los que es prácticamente imposible su clasificación (imágenes, vídeos, etc.). En esta tesis se proponen metodologías y herramientas para generar una solución de Inteligencia de Negocio basada en tecnologías semánticas que permita integrar cualquier fuente de datos. Además aportará grandes ventajas en el ámbito de la IN 2.0, ya que integra información de redes sociales. Por último, y como principales novedades, la solución propuesta será capaz de generar cuestionarios semánticos que aporten nuevo conocimiento e integrará una herramienta para medir y evaluar los activos de conocimiento. Entre los servicios de generación de conocimiento que ofrece esta solución destacan: (1) evaluar los activos de conocimiento de cualquier organización, (2) realizar análisis personalizados de cada una de las actividades, (3) recomendar las medidas que se deben llevar a cabo, y (4) analizar el impacto que esas medidas han tenido en la organización a nivel cuantitativo y cualitativo. Metodología: Para conseguir este objetivo, primero se lleva a cabo un estudio del estado del arte que incluye las tecnologías de IN existentes en el mercado, las tecnologías de la Web Semántica y su aplicación en este dominio, la Web 2.0, los sistemas de integración de datos, el procesamiento analítico en línea (OLAP) y los métodos de evaluación de activos de conocimiento. La solución propuesta se basa en la definición de: (1) un modelo de integración semántica de cualquier tipo de contenido, estructurado y no estructurado, (2) un modelo de entrega de información basado en tecnologías semánticas, (3) un modelo de evaluación de activos de conocimiento, y (4) un modelo de explotación y análisis de la información. Estos modelos serán integrados en una plataforma Web que permita integrar, analizar y explotar los datos de cualquier tipo de información. Los resultados obtenidos serán validados en los siguientes dominios: económico-financiero, evaluación del desempeño, clínico y de apoyo a la investigación biomédica. Resultados: Las principales contribuciones son: (a) diseño de un modelo de evaluación de activos de conocimiento basado en tecnologías semánticas, (b) diseño de un modelo de generación de perfiles semánticos de recursos, (c) diseño e implementación de un generador gráfico de consultas SPARQL, (d) diseño de un modelo para la generación de cuestionarios semánticos, (e) diseño de un modelo para la recomendación basado en funciones de similitud, (f) diseño de un modelo para la recomendación basado en redes bayesianas, (g) cuadros de mando semánticos, y (h) puesta en producción de tres soluciones semánticas que están operativas actualmente. Gracias a estos módulos se han desarrollado y validado cinco soluciones completamente operativas: (1) red social semántica, (2) plataforma semántica para la planificación, (3) plataforma semántica para Inteligencia de Negocio con bases de datos epidemiológicas, (4) cuaderno de recogida de datos semánticos y (5) plataforma para la clasificación semántica de recursos basada en contenidos multimedia. Conclusiones: En este trabajo se han definido una serie de metodologías e implementado un conjunto de herramientas que permiten integrar, entregar información y analizar los datos usando tecnologías semánticas. Esas tecnologías permiten que los usuarios, sin ayuda de personal experto en TIC, puedan configurar buscadores avanzados, generar cuadros de mando personalizados, realizar planes estratégicos y evaluar su impacto, y establecer análisis complejos a partir de perfiles semánticos. Además, gracias al uso de tecnologías semánticas se han sentado las bases para que se pueda enlazar con fuentes de datos externas y realizar análisis comparativos con otras organizaciones. / Objectives: BI requires the integration of several data sources. In many cases, data are distributed among heterogeneous systems or in formats where the classification of images or videos is nearly impossible. Furthermore, the lack of formal models for exploiting organisations is a problem with personalised analyses, and when linking to external resources or comparing companies is required. This thesis proposes methodologies and technologies for building BI solutions using semantic technologies that meet the essential requirements for this type of platforms. In the scope of BI 2.0, this proposal also integrates information from social networks. The solution proposed is able to generate semantic questionnaires that add new knowledge and integrate a methodology for measuring and evaluating the knowledge. The following services should be pointed out: (1) to perform personalised analysis of every company's activities, (2) to evaluate the knowledge in any organisation, (3) to recommend the actions to be carried out and (4) to analyse the impact of these actions in the organisation. Methodology: The first step followed in this thesis consists in the analysis of the state of art of Business Intelligence, Semantic Web, Web 2.0, information integration, On-Line Analytical Processing (OLAP) and evaluation of knowledge assets. The definition of the approach includes: (a) a study of the integration model for building a semantic repository, (b) development of an integration process for adding new semantic information, (c) development of a graphical tool for defining SPARQL queries, (d) development of a generic model for evaluation of knowledge assets, (e) development of a method for defining reduced representations of data for efficient analysis, and (f) the study and selection of solutions for exploiting the information generated in previous phases. All these proposed solutions are implemented in a web platform. The semantic BI platform has been validated in several domains, like financial, performance evaluation, and biomedical research. Results: The main contributions of this work are: (a) design of an evaluation model based on semantic knowledge technologies, (b) design of a semantic model for generating resource profiles, (c) design and implementation of a SPARQL queries generator driven by ontologies, (d) design of a model for the generation of semantic reports, (e) design of a model for the recommendation based on similarity functions, (f) design of a model for the recommendation based on Bayesian networks, (g) customisable semantic dashboards and (h) three out of the six evaluation use cases are running in real environments. These approaches have been successfully implemented and validated in five solutions: (1) semantic social networks, (2) semantic platform for strategic planning, (3) semantic platform for epidemiological analysis, (4) semantic case report form, and (5) semantic platform for multimedia content analysis. Conclusions: In this thesis we have defined a set of methodologies and implemented a set of tools to integrate, deliver information and analyse data using semantic technologies. These technologies allow users, without the help of ICT experts, to configure advanced search engines, build custom dashboards, make strategic plans, evaluate their impact, and do complex analyses from semantic profiles. Furthermore, thanks to the use of semantic technologies, we have established the bases to link to external data sources and comparative analysis with other organisations.
8

Sistema de diálogo basado en mensajería instantánea para el control de dispositivos en el Internet de las cosas

Noguera Arnaldos, Jose Angel 15 January 2016 (has links)
1. OBJETIVOS DE LA TESIS Desarrollar y sentar las bases de un sistema de comunicación basado en redes sociales en formato chat para que los humanos nos podamos comunicar en lenguaje natural y en tiempo real con las máquinas. 2. METODOLOGÍA Para lograr este objetivo, se ha seguido la siguiente metodología: • Análisis del estado del arte en Internet de las cosas, sistemas de diálogo y agentes conversacionales, inteligencia ambiental y domótica, bases de conocimiento y ontologías, hardware para IoT y tecnologías inalámbricas. Este estudio del estado del arte implica el estudio y análisis de los antecedentes de las tecnologías a incorporar en el proyecto. • Análisis detallado de las metodologías actuales en la evolución de la Internet de las Cosas y sus aplicaciones en el campo de la domótica y control de electrodomésticos. • Definición y desarrollo de un sistema de diálogo basado en mensajería instantánea para el control de aparatos en el Internet de las Cosas (IoT). Esta tarea se dividió en distintas partes: (i) definición y desarrollo de un software que permita interpretar las instrucciones en lenguaje natural e interactuar con los dispositivos; (ii) definición y desarrollo de medios de comunicación de la aplicación móvil de chat; (iii) definición y desarrollo de medios de restricción de acceso y autenticación.; (iv) definición y desarrollo para configuración de Bot desde la aplicación cliente; (v) definición y desarrollo de la base del conocimiento; (vi) definición y desarrollo para la adaptación de los protocolos XMPP y AIML; (vii) definición y desarrollo de los medios de seguridad y control de acciones a ejecutar por parte del usuario a través del chat. • Definición y desarrollo de una arquitectura informatizada basada en Internet de las Cosas denominada im4Things formada por tres módulos principales: Im4Things app, Im4ThingsCloudService y el Dispositivo. Esta tarea se dividió en distintas partes: (i) definición y desarrollo de la aplicación de usuario: Im4Things app, (ii) definición y desarrollo aplicación servidor: Im4ThingsCloudService; (iii) definición y desarrollo del hardware y software para el Dispositivo. • Validación de la metodología empleada desarrollada en dos direcciones bien diferenciadas: comprobación de resultados sobre prototipo real y comprobación de la aceptación de un grupo de 50 probadores del sistema (tester) por medio de análisis sociolingüístico para el control de los siguientes electrodomésticos: cafetera, sistema de riego, control de iluminación interior, control de persianas y calefactor de aire. 3. RESULTADOS Los resultados obtenidos basados en el cálculo de la precisión, cobertura y medida-F son que la cafetera y el sistema de riego obtiene la mayor precisión con un 94,87% frente al 91,89% del controlador de persianas, al 91,67% del control de iluminación y al 89,83% del calefactor de aire. 4. CONCLUSIONES Los datos que hemos obtenido de los usuarios tanto de la fase de validación como de la encuesta de satisfacción nos indican que el sistema funciona muy bien. El resultado demuestran que el sistema es preciso en general para los sistemas probados y especialmente precisos en aquellos sistemas donde el control depende de algunas señales de estado digitales. No obstante sólo hemos validado los 5 sistemas comentados que recordamos son cafetera, sistema de riego, control de iluminación interior, control de persianas y calefactor de aire y se deberían evaluar el sistema con más dispositivos para seguir mejorando tanto el funcionamiento del sistema como mejorar la experiencia de uso. / 1. OBJECTIVES OF THE THESIS Develop and lay the foundations for a communication system based on social networks in chat format so that we humans can communicate in natural language and in real time with machines. 2. METHODOLOGY To achieve this goal, we have followed the following methodology: • Analysis of the state of the art Internet of things, conversational dialogue systems and agents, automation and environmental intelligence, knowledge bases and ontologies, hardware and wireless technologies for IoT. This study of the state of the art involves the study and analysis of the history of the technologies to be incorporated in the project. • Detailed analysis of current methodologies in the development of the Internet of Things analysis and its applications in the field of automation and control of electrical appliances. • Definition and development of a dialogue system based on instant messaging control devices in the Internet of Things (IoT). This task is divided into distinct parts: (i) definition and development of software for interpreting natural language instructions and interact with the devices; (ii) defining and developing media mobile chat application; (iii) defining and developing means of authentication and access restriction .; (iv) definition and development Bot Configuration from the client application; (v) defining and developing the knowledge base; (vi) the definition and development and adaptation of AIML XMPP protocols; (vii) defining and developing the means of security and control of actions to be executed by the user through the chat. • Definition and development of an architecture based computerized Internet of Things called im4Things consists of three main modules: Im4Things app, Im4ThingsCloudService and the device. This task is divided into distinct parts: (i) the definition and development of user application: Im4Things app, (ii) definition and development application server: Im4ThingsCloudService; (iii) defining and developing hardware and software for the device. • Validation of the methodology developed in two distinct directions: testing results on actual prototype and acceptance testing of a group of 50 testers system (tester) via sociolinguistic analysis to control the following appliances: coffee, irrigation system, interior lighting control, shutter control and air heater. 3. RESULTS The results based on the calculation accuracy, coverage and measurement-F is that the coffee irrigation system as accurately obtained with 94.87% vs. 91.89% shutters driver at 91.67% lighting control and 89.83% of the air heater. 4. CONCLUSIONS The data we have obtained from the users of both the validation phase and the satisfaction survey indicate that the system works very well. The result shows that the system is accurate in general and especially for proven accurate in those systems where control depends on some digital status signals systems. However we have just validated the 5 reviewed remember are coffee systems, irrigation system, interior lighting control, shutter control and heating and air system should be evaluated with more devices to further improve both system performance and improve user experience.
9

Mejora de la eficiencia energética de sistemas de memoria transaccional hardware para arquitecturas multinúcleo

Gaona Ramirez, Epifanio 15 January 2016 (has links)
Tesis por compendio de publicaciones / Las actuales arquitecturas de procesador con múltiples núcleos de ejecución (arquitecturas multinúcleo o CMP) se presentan con un gran reto difícil de superar para la mayoría de los programadores. El clásico modelo de programación secuencial sigue siendo aplicable en un CMP, sin embargo mediante su empleo no se estarían aprovechando los múltiples núcleos de procesamiento de que disponen estos chips. Para poder extraer todo el rendimiento posible de un CMP es necesario recurrir a la programación paralela y al uso de varios hilos de ejecución. A través de ellos se consigue exprimir el paralelismo a nivel de hilo (TLP) que estas arquitecturas explotan. El modelo de Memoria Transaccional (TM) está siendo promovido actualmente como un nuevo paradigma mediante el cual los programadores pueden desarrollar sus aplicaciones de forma cercana al paradigma secuencial al que están acostumbrados, pero habilitando los beneficios del uso de varios núcleos de ejecución. La identificación en el código de las secciones críticas es la única condición nueva que debe satisfacerse. Enmarcando estas secciones en bloques de código denominados transacciones, el sistema de Memoria Transaccional (TM) se encarga de asegurar las propiedades de atomicidad y aislamiento a pesar de la ejecución de los mismos en paralelo. Todo ello de forma totalmente transparente al programador, que no debe preocuparse por los problemas típicos achacados al uso de los cerrojos clásicos (interbloqueo, convoying e inversión de prioridades). En esta tesis doctoral se presta atención a las implementaciones hardware del modelo de Memoria Transaccional (HTM). Por otra parte, la búsqueda del rendimiento de forma aislada ha dejado de ser la principal motivación en el desarrollo de procesadores para pasar a serlo el rendimiento por watio. El rendimiento sigue siendo importante pero no a costa de un consumo desmesurado de energía. El objetivo de esta tesis es abordar el diseño de sistemas HTM teniendo en cuenta tanto rendimiento como consumo de energía. Para ello, se analiza con detalle en primer lugar el rendimiento y consumo energético que las implementaciones hardware actuales ofrecen (eager-eager y lazy-lazy). Los resultados de este estudio comparativo permiten identificar las ventajas e inconvenientes de cada uno de estos sistemas de memoria transaccional y son el punto de partida para proponer técnicas encaminadas a mejorar los aspectos problemáticos que cada sistema presenta. Por un lado, para los sistemas eager-eager se ha observado que una fracción importante de la energía consumida es debida a los conflictos que surgen entre transacciones. Se han desarrollado, implementado y evaluado diversas políticas que permiten serializar en tiempo de ejecución transacciones que entran en conflicto sólo cuando éste se produce sin que se produzcan ciclos de que den lugar a interbloqueos. El resultado final ha sido un sistema eager-eager más eficiente desde el punto de vista del consumo de energía sin pérdida de prestaciones. Por otro lado, el principal problema en los sistemas lazy-lazy se encuentra en la etapa de confirmación de las transacciones, más concretamente en las operaciones que son necesarias para garantizar que una transacción ha finalizado sin conflictos. Para solucionarlo se ha implementado y evaluado una técnica hardware que permite acelerar, mejorar la eficiencia energética y simplificar la principal propuesta diseñada hasta ahora en sistemas HTM escalables. Concretamente se ha propuesto emplear una red específica de bajo coste y un protocolo implementado en hardware. A lo largo de la tesis se hace uso de un entorno de desarrollo y pruebas ampliamente aceptado, conformado por la herramienta de simulación SIMICS+GEMS y la suite de benchmarks STAMP. Los resultados de esta tesis ofrecen una visión amplia sobre el compromiso entre rendimiento-energía de sistemas HTM sofisticados. / THESIS: Improving Energy Efficiency in Hardware Transactional Memory Systems for Multicore Architectures Abstract Current microprocessor architectures with multiple execution cores (Chip MultiProcessors or CMP) present a great challenge difficult to overcome for most programmers. Although, the classic model of sequential programming remains applicable in CMPs, developing applications in such way would hinder taking advantage of the multiple processor cores available in these chips. To extract all the possible performance of a CMP it is necessary to use parallel programing and multiple threads, through which we are able to squeeze the thread-level parallelism (TLP) that these architectures exploit. Transactional Memory (TM) is currently being promoted as a new paradigm that provides applications’ programmers a programming model that is closest to the sequential paradigm they are familiar with, and at the same time enabling the benefits of using multiple execution cores. The identification of critical sections in code is the only new condition that must be satisfied. By framing these sections in blocks of code called transactions, the underlying Transactional Memory (TM) system is able to ensure the atomicity and isolation properties despite transactions are executed in parallel. All of this is completely transparent to the programmer, who should not worry about the typical problems blamed on the use of classical locks (deadlock, convoying and priority inversion). This thesis focuses on hardware implementations of the Transactional Memory model (HTM). Moreover, the pursuit of performance in isolation is no longer the main motivation in the development of processors, and nowadays, performance per watt constitutes the new target. Performance remains important but not at the cost of excessive energy consumption. The goal of this thesis is to address the design of HTM systems considering both performance and energy consumption. To do so, we first analyze in detail performance and power consumption that current HTM implementations offer (eager-eager and lazy-lazy). The results of this comparative study allow us to identify the benefits and drawbacks of these two transactional memory systems, and they are the starting point to propose techniques aimed at alleviating the main problems each system has. In eager-eager systems, we have noticed that a substantial fraction of the energy consumed is due to conflicts between transactions. In order to minimize such conflicts, we have developed, implemented and evaluated several policies that identify and serialize transactions that will probably conflict, all of this avoiding cycles leading to potential deadlocks. The final result has been a more efficient eager-eager system from the energy consumption point of view without suffering any performance loss. On the other hand, the main problem in the lazy-lazy systems is at the commit stage of the transactions, specifically in the operations that are necessary to ensure that a transaction can be completed without any conflicts. To solve this, we have implemented and evaluated a hardware technique that speeds up performance, improves energy efficiency and simplifies the main proposal designed so far in scalable HTM systems. In particular, we have proposed to use a low cost specific network and a protocol implemented in hardware that uses it. Throughout this thesis we make use of a widely accepted development and evaluation environment, consisting in the simulation tool known as SIMICS+GEMS and the STAMP benchmarks suite. The results reported in this thesis provide a broad view of the trade-off between performance and energy consumption in sophisticated HTM systems.
10

Propuesta de diseño y despliegue de servicios de seguridad y movilidad en redes vehiculares

Fernández Ruiz, Pedro Javier 18 January 2016 (has links)
En la revolución tecnológica que estamos viviendo en estos primeros años del siglo XXI, la aparición y el auge de las tecnologías inalámbricas junto a dispositivos cada vez más pequeños y portables está suponiendo un gran impulso en la creación de nuevas aplicaciones y áreas de negocio antes nunca vistas. Las redes, cuya naturaleza hasta nuestros días había tenido un carácter estático, dan un salto cualitativo hacia la movilidad, hacia los vehículos, apareciendo así las redes vehiculares. Dichas redes están en el punto de mira del desarrollo tecnológico, dado el previsible número de aplicaciones y beneficios que se pueden aportar al mundo de la conducción. Este gran avance no ha dejado indiferente a las instituciones europeas e institutos de investigación, que se preguntan si realmente se están aprovechando los beneficios que aportan dichas tecnologías emergentes en el campo de la conducción, carreteras y vehículos. Para ello se trabaja por parte de los institutos de estandarización ISO y ETSI en la definición de estándares que unifique el uso de estas tecnologías mediante una arquitectura de comunicaciones común que permita implementar redes vehiculares dentro del campo de los Sistemas de Transporte Inteligentes Cooperativos (C-ITS). El principal avance aportado por esta Tesis es la definición de una pila de comunicaciones híbrida que incorpora protocolos basados en Internet (IETF) para proporcionar servicios de movilidad y seguridad sobre IPv6 en redes vehiculares, siguiendo en todo momento las directrices marcadas por los órganos de estandarización ISO y ETSI. Otro de los ámbitos de relevancia en el uso de IPv6 y, en general, en las redes que requieren de una estructura topológica, es la movilidad de los nodos. Sin duda, en el mundo vehicular éste es un aspecto crítico debido a la alta movilidad de los mismos. En este trabajo se apuesta por el servicio de movilidad del que dispone IPv6, gracias al protocolo Network Mobility (NEMO), una variante evolucionada de Mobile IPv6 (MIPv6), que permite mantener la continuidad de red usando una única dirección IP. NEMO además soporta el movimiento entre redes no de un solo nodo, sino de toda una red. Puesto que un vehículo es generalmente una ``pequeña'' red en movimiento, la aplicabilidad de NEMO en las redes vehiculares que hacen uso de IPv6 es directa. Un error muy extendido en el pasado a la hora de definir y desarrollar arquitecturas de comunicaciones ha sido la de incluir las funcionalidades de seguridad a posteriori, una vez que la red ya estaba definida, implementada e incluso operativa. En el campo de las redes vehiculares, la arquitectura telemática de referencia definida por el ISO/ETSI pone las bases para el diseño y la integración de protocolos de seguridad, manejo de material criptográfico, sistemas de cifrado y capacidades de filtrado, aportando una capa trasversal con diferentes servicios de seguridad disponibles para los diferentes niveles dentro de la pila de comunicaciones, que harán a las redes vehiculares seguras desde la etapa de diseño. Las líneas seguidas actualmente para implementar esta seguridad en los C-ITS, tanto en el ámbito de la estandarización como en la literatura científica, en general, se han orientado a la protección de mensajes de red individuales usando criptografía asimétrica. Esto no supone ningún problema si la tasa de envío de mensajes es baja y el destino de los mismos es diverso. Sin embargo, el gran consumo de recursos que supone el uso de la criptografía asimétrica hace inadecuada esta forma de protección para elevadas tasas de envío de mensajes. Por ello surge la necesidad de abrir otras líneas orientadas a la protección de flujos de datos. En la presente Tesis, el uso de IPv6, y en concreto el protocolo IPsec, se presenta como una estrategia para transmitir datos de forma más eficiente usando asociaciones de seguridad extremo a extremo, normalmente implementadas con criptografía simétrica. Esto es considerablemente más rápido y presenta un menor consumo que la alternativa de seguridad asimétrica. Para el establecimiento automático de estas asociaciones de seguridad tendrá un papel fundamental el protocolo IKEv2, que, también operando sobre IPv6, permite un uso fácil y escalable de este tipo de seguridad ofrecida por IPsec, además de aportar mecanismos para posibilitar la autenticación y autorización de los vehículos para el acceso a la red. Ofrecer las funciones de seguridad y movilidad en IPv6 de manera simultánea requiere de una adaptación especial de los protocolos involucrados para que ambos servicios sean interoperables. Estas adaptaciones están descritas por el IETF a nivel conceptual, sin embargo, en la práctica, se han descubierto lagunas de funcionamiento que requieren de una reconsideración a nivel de diseño. Estas situaciones son difícilmente detectables sobre el papel y comúnmente suelen aparecer en la fase de implementación. En esta Tesis se proponen soluciones a estas situaciones, al tiempo que se implementan, verifican y se evalúa su rendimiento en un escenario real. La Tesis también presta un especial interés en la evaluación y detección de problemas en los traspasos. Como parte final de esta Tesis, se propone el uso de tecnologías complementarias que ayuden a reducir el tiempo invertido en estos traspasos y ganar en calidad de servicio. En concreto, el uso de Multiple Care-of Address Registration (MCoA) permite, además de mantener varios canales de comunicación simultáneos, una reducción en el tiempo de configuración de los enlaces hacia una red destino del traspaso. IEEE 802.21 se propone igualmente para asistir los traspasos con información del entorno y del propio equipo móvil que ayuda a decidir el mejor momento para realizarlos, maximizando la calidad de servicio ofrecida. Estas mejoras han sido implementadas y validadas en un entorno de pruebas real, siendo este proceso una parte fundamental de la Tesis, que nos ha permitido obtener resultados relevantes en la evaluación del rendimiento de las comunicaciones. / Summary In the first years of the century, we are living a technological revolution with the appearance of different wireless technologies and the popularization of smaller and portable devices. As a result of this, new application and business areas never seen before have emerged. Networks, whose nature until now had been static, take now the way towards mobility scenarios such as vehicular communications. Vehicular networks are in the spotlight of technological development, given the expected number of applications and benefits they can provide to society. This breakthrough has left no one indifferent in the scientific community, which wonder if they are really leveraging the benefits of these emerging technologies in current roads. To reach this goal, the ISO and ETSI standardization bodies are defining standards that unify the use of telematics through a common communication architecture, allowing different services to share the same base infrastructure. These efforts are providing their first results with the appearance of new standards defining a common architecture and protocols to implement inter-operable vehicular networks within the Cooperative Intelligent Transport Systems (C-ITS) field. The main advance of this Thesis is the definition of a hybrid communication stack that follows ISO/ETSI specification and integrates Internet IETF-based protocols to achieve IPv6 mobility, security and continuity objectives. A relevant area in the use of IPv6 is the mobility of nodes in networks requiring a topological structure. Certainly, in the vehicular world, this is critical due to the high mobility of vehicles. In this Thesis we propose the usage of Network Mobility (NEMO), a variant of Mobile IPv6 (MIPv6), to allow mobile nodes to keep using a unique IPv6 address to open sessions, regardless the access network addressing scheme where they are currently connected. NEMO also supports the movement of a whole IPv6 network. Since a vehicle can be considered as a small network in movement, the applicability of NEMO in IPv6 vehicular scenarios is clear. A widespread mistake in the past has been including security features in vehicular network proposals afterwards, i.e. once design and even implementation stages have been completed. Precisely, in the area of vehicular networks, the defined ISO/ETSI reference architecture establishes a cross layer approach with a set of security services at different abstraction levels within the communications stack. This establishes the basis for the design and integration of security protocols, cryptographic material management, encryption and filtering capabilities, which will make secure vehicle networks from early design stages. Nevertheless, current research lines concerning the implementation of security services in C-ITS, are mainly focused on the protection of individual network messages using asymmetric cryptography. This is not a problem if the message submission rate is low and destination nodes are diverse. However, the high resources consumption caused by the use of asymmetric cryptography makes this kind of protection inappropriate for high message submission rates. This fact opens other research lines based on protecting data flows. In this Thesis, the use of IPv6, in particular the Internet Protocol security (IPsec), is presented as a strategy to transmit data more efficiently and end-to-end. IPsec is usually implemented with symmetric cryptography, which is significantly faster, consuming fewer resources than the asymmetric alternative. For automatic establishment of security associations, another security protocol called Internet Keying Exchange version 2 (IKEv2) is used. It also provides authentication and authorization mechanisms to enable identification and authorization to access the network and allowed services. In order to provide security and mobility functions simultaneously in IPv6, a proper harmonized stack design is necessary to make them inter-operable. Although the requirements of such cooperation have been initially described by the Internet Engineering Task Force (IETF), in practice, we have discovered several gaps in specifications that should be covered, such as bootstrapping and handover deficiencies. In the Thesis, a set of solutions are proposed to solve these issues, which are presented from the design and the implementation/evaluation perspectives. As a result of this integration, a communication mechanism between these services has been identified as a key need. The Thesis is also focused on the handover process, evaluating its performance and trying to detect possible problems. With the aim of reducing the time spent in this process, it is proposed the usage of Multiple Care-of Address Registration (MCoA) to maintain several communication channels simultaneously and thus speed up the management of communication flows. IEEE 802.21 is also proposed to assist handovers using extra information gathered from the mobile equipment and the environment, which helps to decide when to perform the network change, thus maximizing the offered quality of service. These handover improvements have also been implemented and tested in real environments, as the previous features of the IPv6-based vehicular stack proposal. The prototyping and experimentation nature of this Thesis is a key aspect of the work. Hence, a methodological and exhaustive procedure has been followed to test the previously presented contributions in real driving environments, with the aim of gathering significant results that finally evaluate our contributions from the validation and performance point of views.

Page generated in 0.4436 seconds