• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3338
  • 2181
  • 478
  • 181
  • 181
  • 181
  • 181
  • 178
  • 178
  • 177
  • 177
  • 7
  • 4
  • 3
  • 3
  • Tagged with
  • 6030
  • 3318
  • 3268
  • 3251
  • 3183
  • 3139
  • 3132
  • 3131
  • 3125
  • 3112
  • 3109
  • 798
  • 490
  • 460
  • 418
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Método para apoio à construção de strings de busca em revisões sistemáticas por meio de mineração visual de texto

Mergel, Germano Duarte January 2014 (has links)
Made available in DSpace on 2015-04-30T14:04:04Z (GMT). No. of bitstreams: 1 000467244-Texto+Completo-0.pdf: 1839473 bytes, checksum: addcf180682b243c0834e784f67d8774 (MD5) Previous issue date: 2014 / Despite the increased popularity of the adoption of Systematic Literature Reviews in Software Engineering, many researchers still indicate it as a costly and challenging process. Studies report problems in different activities throughout the review process, as in the construction of the Systematic Review search string and selection of primary studies. Aiming to promote aid to its realization, tools based on methods and techniques from the Visual Text Mining area are presented in published studies, proposing assistance in various tasks of a Systematic Literature Review. However, it’s perceived a lack of methods proposing to aid a researcher with the construction of the Systematic Review search string, on its planning phase. In this context, this paper proposes an iterative method to assist the process of building the search string for a Systematic Review. Using Visual Text Mining techniques, it supports the researcher by suggesting terms for the search string. Relevant terms are extracted from studies selected by the researcher and shown in a visualization that facilitates the decision of the researcher to update the search string and include them, building and refining the search string that will be used in the Systematic Review. A tool that implements the proposed method has been developed, allowing the execution of tests with researchers and an analysis of the feasibility of this proposal. Interviews with researchers identified the difficulties in performing Systematic Reviews and captured their opinions regarding the use of the proposed method, discussing its adoption. / Apesar do aumento na popularidade da aplicação de Revisões Sistemáticas da Literatura na Engenharia de Software, muitos pesquisadores ainda a apontam como um processo custoso e desafiador. Estudos levantados reportam problemas em diferentes atividades ao longo de seu processo, como na construção da string de busca da Revisão Sistemática e na seleção dos estudos primários. Visando promover um auxílio à sua realização, métodos e ferramentas baseados em técnicas da área de Mineração Visual de Texto são propostas em estudos publicados da área, atuando em diversas etapas de uma Revisão Sistemática da Literatura. É percebida, porém, a ausência de métodos que auxiliem um pesquisador na construção da string de busca de sua Revisão Sistemática, na fase de planejamento da mesma. Neste contexto, o presente trabalho visa qualificar o processo de construção da string de busca de uma Revisão Sistemática, propondo um método iterativo que, aplicando técnicas da Mineração Visual de Texto, apoia o pesquisador através da sugestão de termos relevantes de estudos selecionados. Os termos mais relevantes são extraídos de estudos selecionados e visualizados de forma a facilitar a decisão do pesquisador em incluí-los na string de busca utilizada, construindo e refinando a string de busca que será usada na Revisão Sistemática. Uma ferramenta que implementa o método proposto foi desenvolvida, permitindo que testes com estes mesmos pesquisadores fossem realizados, e que uma análise sobre a viabilidade desta proposta fosse feita. Entrevistas realizadas com pesquisadores identificaram as dificuldades enfrentadas na realização de Revisões Sistemáticas e captaram suas opiniões a respeito da utilização do método proposto como solução.
252

JFAULT: tolerância a falhas transparente utilizando reflexão e compilação dinâmica no modelo de meta-níveis

Scherer, Marcio Gustavo Gusmão January 2015 (has links)
Made available in DSpace on 2015-05-05T02:01:38Z (GMT). No. of bitstreams: 1 000467903-Texto+Completo-0.pdf: 2071415 bytes, checksum: 7b9c07b7d2604d46d4b4ea8d6c7bbfac (MD5) Previous issue date: 2015 / Fault tolerance has become an important mean to achieve high availability in computational systems. However, building fault tolerant architectures is not a trivial task. Reflection in Meta-level architectures has been used for years as a mean for implementation of nonfunctional requirements. In this way it is possible to have a clear separation of its implementation from the implementation of the business logic itself (functional requirements) in layers or levels. These levels have become known, respectively, as base-level and metalevel and are regularly used in nowadays systems’ architecture since they bring several benefits such as increased reuse and reduced complexity, furthermore, they provide better responsibilities separation among systems’ components. On the other hand, if the meta-level is a useful architecture artifice there is still the need to build the meta-level components that intend to handle fault tolerance in application’s services, the components need to be implemented and integrated to the system’s architecture, which involves some development effort and complexity. This work presents a proposal to build, automatically and in runtime, the meta-level components for fault tolerance handling in application’s services. More precisely, it intends to propose a framework – named JFault – which using reflection and dynamic compilation will leverage those requirements transparently and with minor changes in the system. The framework is implemented in Java, language that supports both reflection and dynamic compilation, but could be built in any programming language that supports such APIs. / Tolerância a falhas tornou-se um importante meio para se garantir alta disponibilidade de sistemas computacionais. No entanto, a construção de arquiteturas tolerantes a falhas não é uma tarefa trivial. Reflexão em arquiteturas de meta-nível tem sido usada há anos como um meio para implementação de requisitos não-funcionais. Dessa forma é possível ter uma separação clara e em níveis entre a implementação da lógica de negócios do sistema (requisitos funcionais) e as relacionadas ao uso da aplicação em termos de desempenho, usabilidade, segurança, disponibilidade, etc (não funcionais). Estes níveis se tornaram conhecidos na literatura, respectivamente, como nível-base e meta-nível e são frequentemente utilizados em sistemas hoje em dia visto que trazem vários benefícios como aumento de reuso de código e redução de acoplamento entre os elementos da arquitetura, além de trazer uma melhor divisão de responsabilidades entre os componentes do sistema. Por outro lado, se as arquiteturas de meta-nível se tornaram um artifício útil, existe a necessidade de se implementar os componentes de meta-nível responsáveis pela criação de serviços tolerantes a falhas, o que envolve esforço de desenvolvimento, adaptações no sistema e geralmente adiciona certa complexidade à arquitetura. Este trabalho apresenta uma proposta de construir, de forma automática e em tempo de execução, os componentes de meta-nível para tolerância a falhas em serviços de aplicações. Mais precisamente, pretende propor um framework – chamado JFault - que usando reflexão e compilação dinâmica se propõe a preencher esse requisito de forma transparente e com pequenas alterações no sistema. O framework é implementado em Java, linguagem que suporta tanto reflexão como compilação dinâmica, mas poderia ser construído em qualquer linguagem de programação que suporta tais APIs.
253

Diseño e implementación de la red voz y data de la Unidad Minera Breapampa - Compañia de Minas Buenaventura S.A.A.

Huatuco Cipriano, Antonio Frank 30 June 2017 (has links)
El avance de la tecnología en dispositivos informáticos, herramientas y mejora en los procesos de gestión empresarial ha estimulado que muchas de las organizaciones o empresas, implementen herramientas o tecnologías de información, tratando que sus procesos se ejecuten de manera eficaz y óptima, así mismo, la necesidad de implantar las medidas adecuadas de seguridad informática. Esto se relaciona con la seguridad en las redes de telecomunicaciones. Es de vital importancia que una organización cuente con la implementación de una red informática, la cual permita controlar la seguridad de su información, tanto en la entrada, como en la salida de datos; además, de la velocidad en el acceso. / Tesis
254

Gestión de la confianza en redes colaborativas centradas en el intercambio seguro de alertas para la detección de ataques distribuidos

Gil Pérez, Manuel 23 December 2015 (has links)
Las alertas que los IDSs necesitan intercambiar para la detección de ataques distribuidos deben ser evaluadas antes de que sean aceptadas como verdaderas. Comportamientos maliciosos de un IDS, enviando alertas fraudulentas, haría sospechar al sistema de intentos de alteración de sus políticas de seguridad, cuando no es así. La gestión de la confianza para modelar el comportamiento de los IDSs se convierte en una herramienta obligatoria en la evaluación de las alertas. Además, también se deben proteger los canales de comunicación entre los IDSs para que el intercambio de alertas se realice de manera segura, garantizando que no se comprometa la confidencialidad e integridad de las alertas intercambiadas ni que sean enviadas por IDSs no legítimos del sistema. En este contexto, el objetivo de esta tesis doctoral es la definición, diseño y puesta en marcha de un Sistema Colaborativo de Alertas (CAS) para detectar ataques distribuidos, con el intercambio seguro de las alertas generadas por IDSs confiables en entornos multidominio. Concretamente: Sobre la seguridad en el intercambio de las alertas: Analizar las limitaciones para garantizar la autenticidad de los IDSs como entidades legítimas del CAS, así como la confidencialidad e integridad de las alertas intercambiadas. Diseñar un algoritmo para la validación de certificados X.509 en entornos multidominio. Implantar y evaluar en rendimiento el algoritmo de construcción y validación de caminos de certificación. Sobre la confianza en las alertas generadas por los IDSs: Estudiar y analizar mecanismos para el modelado del comportamiento de un IDS. Desarrollar un modelo para detectar alertas fraudulentas, generadas por IDSs maliciosos. Diseñar un modelo para la asignación inicial de la confianza a nuevas unidades de detección.  Analizar las principales técnicas de optimización en la detección de ataques distribuidos y proporcionar un sistema con el que maximizar la calidad de los procesos de detección. Desplegar y evaluar los modelos de confianza basados en reputación para maximizar el ratio en la identificación de falsos positivos, debido a comportamientos malintencionados. Para ello, se ha empleado la siguiente metodología: Análisis crítico de los principales retos ante los que se enfrentan los sistemas de detección de ataques distribuidos, sobre todo en el intercambio seguro de las alertas. Identificación de los fallos y las oportunidades en las tecnologías existentes para la correcta detección de ataques distribuidos. Definición de modelos de confianza para el intercambio seguro de las alertas, así como la identificación de comportamientos maliciosos de los emisores de dichas alertas. Evaluación minuciosa de todas las propuestas realizadas mediante intensas simulaciones y pruebas experimentales. A continuación se enumeran los principales resultados que se han obtenido durante el desarrollo de esta tesis doctoral. Gestión de la seguridad en el intercambio de las alertas con criptografía de clave pública. Propuesta sobre la definición de los certificados X.509 mediante una serie de requisitos para una correcta interoperabilidad entre los dominios de seguridad de una federación de PKIs. Sobre esta federación, se propone un algoritmo de construcción y validación de caminos de certificación, como parte de un Servicio de Validación, para validar certificados en entornos multidominio. Su evaluación se ha hecho analizando 268.048 certificados de la federación de PKI más representativa en la actualidad, la Federal Bridge Certification Authority. Gestión de la confianza basada en reputación para la detección de alertas fraudulentas. Sistema de reputación con el que modelar el comportamiento que tienen los IDSs a la hora de publicar y compartir sus alertas. La gestión de esta confianza se ha realizado mediante dos mecanismos basados en reputación. Uno a nivel intradominio, para ver la probabilidad que las alertas intercambiadas entre los IDSs de un dominio de seguridad son verdaderas, y otro a nivel interdominio, con el que confirmar la confianza entre los dominios de seguridad y/o administrativos al evaluar como cierta las alertas que intercambian. La evaluación de los dos modelos arroja la posibilidad de detectar hasta un 95% de falsos positivos. Asignación de un valor inicial de la confianza de una nueva unidad de detección. Sistema con el que evaluar la confianza que se puede depositar en una nueva unidad de detección. Sobre todo, en nuevos sistemas de detección instalados en los dispositivos móviles de los usuarios finales. La evaluación del sistema propuesto confirma la correcta identificación de comportamientos maliciosos de hasta un 30% de los dispositivos móviles, pudiendo aislarlos a partir de entonces sin tener en cuenta las alertas fraudulentas que pudieran generar. Sistema adaptativo para maximizar la calidad de las alertas con el despliegue de la mejor configuración de monitorización posible. Sistema de reputación basado en la diversidad de la confianza entre todos los valores de reputación de los IDSs, con el que obtener y aplicar el mejor modelo de despliegue posible de los IDSs para maximizar la confianza en sus procesos de detección. Mediante la evaluación realizada se ratifica que la diversidad de la confianza, como métrica heurística para medir la calidad en la detección, permite obtener el mejor modelo de despliegue de los IDSs para tener mejores evidencias sobre sus alertas, con el fin último de detectar ataques distribuidos de la manera más precisa posible. / The alerts that the IDSs need to exchange for detecting distributed attacks should be assessed before endorsing them as true. Malicious behaviors from an IDS, sending out fraudulent alerts, can lead the system to suspect alteration attempts of it security policies, when it is not real. The trust management for modeling the IDSs' behavior is claimed as a must tool in assessing security alerts. Furthermore, the communication channels between the IDSs should also be protected to ensure the exchange of alerts is carried out safely, assuring that the alerts' confidentiality and integrity is not compromised nor these alerts are sent by IDSs not legitimate of the system. In this context, the main objective of this PhD Thesis is the definition, design and start-up of a Collaborative Alert System (CAS) for detecting distributed attacks, with the support of the secure exchange of the alerts produced by reliable IDSs in multi-domain environments. Specifically: Regarding the security in exchanging alerts: Analyze the limitations for ensuring the authenticity of the IDSs as legitimate entities of the CAS, as well as the confidentiality and integrity of the alerts exchanged. Design an algorithm for the X.509 certificate validation in multi-domain environments. Deploy and evaluate in performance the certification path building and validation algorithm. Regarding the confidence on the alerts produced by the IDSs: Study and analyze mechanisms for modeling the behavior of an IDS. Develop a model capable of detecting fraudulent alerts, produced by malicious IDSs. Design a model aimed at assigning an initial trust score to a new detection unit. Analyze the main optimization techniques for detecting distributed attacks and, as a result, provide a system to maximize the quality of the detection processes. Deploy and evaluate the reputation-based trust models to maximize the ratio in identifying false positives, because of malicious behavior. To this end, the following methodology has been conducted: Critical analysis of the major challenges to which the distributed attack detection systems are faced, above all the secure exchange of alerts. Identification of failures and opportunities in existing technologies for a proper detection of distributed attacks. Definition of trust models for securely exchanging alerts, as well as identifying malicious behavior of issuers reporting these alerts. Thorough evaluation of all the proposals made in this PhD Thesis, through conducting a pool of intensive simulations and experimental tests. In the next, we enumerate the main results obtained along the development of this PhD Thesis. Trust management in exchanging alerts based on public key cryptography. Proposal about the definition of X.509 certificates under certain requirements for a proper interoperability between the security domains of a PKI federation. Using this federation, a certification path building and validation algorithm is also proposed, as part of a Validation Service, to validate certificates in multi-domain environments. The evaluation of this proposal is conducted by analyzing 268,048 certificates of the most representative existing PKI federation, the Federal Bridge Certification Authority. Trust management based on reputation for detecting fraudulent alerts. This reputation system shapes the IDSs' behavior when generating and also sharing their alerts. This trust management is performed by two reputation-based mechanisms. One at intra-domain level, for checking the probability that the alerts shared between the IDSs of a security domain are true, and another at inter-domain level, with which to prove the trustworthiness of security and/or administrative domains when assessing the alerts exchanged between them as true. The evaluation of both models yields the possibility of detecting up to 95% false positives. Assignment of an initial trust score to a new detection unit. System with which to assess the confidence that can be deposited on a new detection unit. Above all, the new detection systems installed in the end-users' mobile devices. The evaluation of the proposed system proves the proper identification of malicious behaviors up to 30% mobile devices, thereby isolating them from that point regardless the fraudulent alerts they could produce. Adaptive system to maximize the alerts quality with the deployment of the best possible monitoring configuration. Reputation system based on the trust diversity by considering all the IDSs' reputation scores. This system is able to generate and deploy the best placement model of the IDSs aimed to maximize the confidence on their detection processes. Through the appropriate assessment, it is confirmed that the trust diversity, as a heuristic metric to measure the detection quality, provides the best placement model of the IDSs for collecting better evidences on their alerts, in order to detect distributed attacks more precisely.
255

Mejora de la eficiencia energética de sistemas de memoria transaccional hardware para arquitecturas multinúcleo

Gaona Ramírez, Epifanio 15 January 2016 (has links)
Tesis por compendio de publicaciones / Las actuales arquitecturas de procesador con múltiples núcleos de ejecución (arquitecturas multinúcleo o CMP) se presentan con un gran reto difícil de superar para la mayoría de los programadores. El clásico modelo de programación secuencial sigue siendo aplicable en un CMP, sin embargo mediante su empleo no se estarían aprovechando los múltiples núcleos de procesamiento de que disponen estos chips. Para poder extraer todo el rendimiento posible de un CMP es necesario recurrir a la programación paralela y al uso de varios hilos de ejecución. A través de ellos se consigue exprimir el paralelismo a nivel de hilo (TLP) que estas arquitecturas explotan. El modelo de Memoria Transaccional (TM) está siendo promovido actualmente como un nuevo paradigma mediante el cual los programadores pueden desarrollar sus aplicaciones de forma cercana al paradigma secuencial al que están acostumbrados, pero habilitando los beneficios del uso de varios núcleos de ejecución. La identificación en el código de las secciones críticas es la única condición nueva que debe satisfacerse. Enmarcando estas secciones en bloques de código denominados transacciones, el sistema de Memoria Transaccional (TM) se encarga de asegurar las propiedades de atomicidad y aislamiento a pesar de la ejecución de los mismos en paralelo. Todo ello de forma totalmente transparente al programador, que no debe preocuparse por los problemas típicos achacados al uso de los cerrojos clásicos (interbloqueo, convoying e inversión de prioridades). En esta tesis doctoral se presta atención a las implementaciones hardware del modelo de Memoria Transaccional (HTM). Por otra parte, la búsqueda del rendimiento de forma aislada ha dejado de ser la principal motivación en el desarrollo de procesadores para pasar a serlo el rendimiento por watio. El rendimiento sigue siendo importante pero no a costa de un consumo desmesurado de energía. El objetivo de esta tesis es abordar el diseño de sistemas HTM teniendo en cuenta tanto rendimiento como consumo de energía. Para ello, se analiza con detalle en primer lugar el rendimiento y consumo energético que las implementaciones hardware actuales ofrecen (eager-eager y lazy-lazy). Los resultados de este estudio comparativo permiten identificar las ventajas e inconvenientes de cada uno de estos sistemas de memoria transaccional y son el punto de partida para proponer técnicas encaminadas a mejorar los aspectos problemáticos que cada sistema presenta. Por un lado, para los sistemas eager-eager se ha observado que una fracción importante de la energía consumida es debida a los conflictos que surgen entre transacciones. Se han desarrollado, implementado y evaluado diversas políticas que permiten serializar en tiempo de ejecución transacciones que entran en conflicto sólo cuando éste se produce sin que se produzcan ciclos de que den lugar a interbloqueos. El resultado final ha sido un sistema eager-eager más eficiente desde el punto de vista del consumo de energía sin pérdida de prestaciones. Por otro lado, el principal problema en los sistemas lazy-lazy se encuentra en la etapa de confirmación de las transacciones, más concretamente en las operaciones que son necesarias para garantizar que una transacción ha finalizado sin conflictos. Para solucionarlo se ha implementado y evaluado una técnica hardware que permite acelerar, mejorar la eficiencia energética y simplificar la principal propuesta diseñada hasta ahora en sistemas HTM escalables. Concretamente se ha propuesto emplear una red específica de bajo coste y un protocolo implementado en hardware. A lo largo de la tesis se hace uso de un entorno de desarrollo y pruebas ampliamente aceptado, conformado por la herramienta de simulación SIMICS+GEMS y la suite de benchmarks STAMP. Los resultados de esta tesis ofrecen una visión amplia sobre el compromiso entre rendimiento-energía de sistemas HTM sofisticados. / Improving Energy Efficiency in Hardware Transactional Memory Systems for Multicore Architectures Abstract Current microprocessor architectures with multiple execution cores (Chip MultiProcessors or CMP) present a great challenge difficult to overcome for most programmers. Although, the classic model of sequential programming remains applicable in CMPs, developing applications in such way would hinder taking advantage of the multiple processor cores available in these chips. To extract all the possible performance of a CMP it is necessary to use parallel programing and multiple threads, through which we are able to squeeze the thread-level parallelism (TLP) that these architectures exploit. Transactional Memory (TM) is currently being promoted as a new paradigm that provides applications’ programmers a programming model that is closest to the sequential paradigm they are familiar with, and at the same time enabling the benefits of using multiple execution cores. The identification of critical sections in code is the only new condition that must be satisfied. By framing these sections in blocks of code called transactions, the underlying Transactional Memory (TM) system is able to ensure the atomicity and isolation properties despite transactions are executed in parallel. All of this is completely transparent to the programmer, who should not worry about the typical problems blamed on the use of classical locks (deadlock, convoying and priority inversion). This thesis focuses on hardware implementations of the Transactional Memory model (HTM). Moreover, the pursuit of performance in isolation is no longer the main motivation in the development of processors, and nowadays, performance per watt constitutes the new target. Performance remains important but not at the cost of excessive energy consumption. The goal of this thesis is to address the design of HTM systems considering both performance and energy consumption. To do so, we first analyze in detail performance and power consumption that current HTM implementations offer (eager-eager and lazy-lazy). The results of this comparative study allow us to identify the benefits and drawbacks of these two transactional memory systems, and they are the starting point to propose techniques aimed at alleviating the main problems each system has. In eager-eager systems, we have noticed that a substantial fraction of the energy consumed is due to conflicts between transactions. In order to minimize such conflicts, we have developed, implemented and evaluated several policies that identify and serialize transactions that will probably conflict, all of this avoiding cycles leading to potential deadlocks. The final result has been a more efficient eager-eager system from the energy consumption point of view without suffering any performance loss. On the other hand, the main problem in the lazy-lazy systems is at the commit stage of the transactions, specifically in the operations that are necessary to ensure that a transaction can be completed without any conflicts. To solve this, we have implemented and evaluated a hardware technique that speeds up performance, improves energy efficiency and simplifies the main proposal designed so far in scalable HTM systems. In particular, we have proposed to use a low cost specific network and a protocol implemented in hardware that uses it. Throughout this thesis we make use of a widely accepted development and evaluation environment, consisting in the simulation tool known as SIMICS+GEMS and the STAMP benchmarks suite. The results reported in this thesis provide a broad view of the trade-off between performance and energy consumption in sophisticated HTM systems.
256

Framework basado en el estándar de calidad del software ISO/IEC 25000:2005 (SQuaRE) para la evaluación de la calidad de las ontologías

Duque Ramos, Astrid 21 January 2015 (has links)
Tesis por compendio de publicaciones / Objetivos El objetivo general de esta tesis es crear un método de evaluación de la calidad de ontologías, adaptando el estándar de calidad del software ISO/IEC 25000:2005 Software Quality Requirements and Evaluation SQuaRE, que permite la trazabilidad entre requisitos y métricas de calidad de una ontología, con el fin de valorar de forma objetiva y reproducible sus características, y brindar así un mecanismo de asistencia a los usuarios y desarrolladores para la toma de decisiones informadas. Metodología 1. Se analiza el estado del arte relacionado con ontologías, lenguajes de representación de ontologías, evaluación de ontologías, y estándares de calidad del software y métricas de software. 2. Se diseña el framework OQuaRE para evaluación de la calidad de ontologías con base en SQuaRE. Para ello se definen (1) el modelo de calidad; (2) las métricas de calidad; (3) las asociaciones entre métricas y subcaracterísticas de calidad; y (4) la escala para las métricas, en el rango [1-5]. 3. Aplicación del framework a ontologías de diferentes dominios en el ámbito de ontologías biomédicas. 4. Validación del framework a través de la comparación de sus resultados con resultados de otros métodos de evaluación de ontologías como Gold Standard, Competency Questions, evaluación humana y evaluación de versiones. 5. Evaluación del framework por un grupo de expertos externos. Resultados 1. Un framework para evaluar la calidad de ontologías OQuaRE, el cual se compone de: (1) el modelo de calidad de ontologías que consta de un grupo de características y subcaracterísticas de calidad; (2) un conjunto de métricas de calidad; (3) las asociaciones subcaracterística-métrica; (4) las tablas de la escala de valores [1-5] para las métricas de calidad. 2. La aplicación del framework a un conjunto de ontologías de diferentes dominios con el fin de (1) identificar la capacidad de OQuaRE para detectar diferencias entre una ontología original y su versión normalizada; (2) identificar las fortalezas y debilidades de un conjunto de ontologías de unidades de medida, en términos de características y subcaracterísticas de calidad de OQuaRE; (3) identificar la utilidad de OQuaRE para evaluar métodos y guías de buenas prácticas de construcción de ontologías; (4) evaluar el impacto de la evolución de una ontología en su calidad identificando el efecto de los cambios entre versiones; (5) las características, subcaracterísticas y métricas aplicables a las ontologías financieras. Conclusiones OQuaRE es un framework de evaluación de ontologías que integra las medidas de varios criterios de la ontología y las agrupa en un modelo de calidad basado en el estándar de calidad del software SQuaRE ISO 25000:2005. OQUaRE evalúa la calidad de las ontologías de manera objetiva y reproducible, e incluye trazabilidad entre características, subcaracterísticas y métricas, partiendo desde un alto nivel, hasta llegar a un nivel más bajo de granularidad. OQuaRE contribuye a la toma de decisiones informadas porque presenta las fortalezas y debilidades de una ontología en términos de características y subcaracterísticas de calidad. OQuaRE sirve como base para evaluar la estructura de una ontología, desde su aspecto funcional hasta su aspecto más técnico, y puede ser de aplicación para ontologías de diferentes dominios. OQuaRE es un framework adaptable que permite incorporar nuevas métricas y asociaciones subcaracterística-métrica y crear o redefinir las escalas para cada repositorio particular. Las asociaciones característica-subcaracterística-métrica permiten un mejor entendimiento de las conexiones entre las características de una ontología y los criterios de calidad, además de una visión más clara de las métricas y su utilidad en la evaluación de las ontologías. / Objectives The main goal of this thesis is to create a method for the evaluation of the quality of ontologies by adapting the software product quality standard ISO / IEC 25000: 2005 known as SQuaRE (Software Quality Requirements and Evaluation), which enables the traceability between requirements and quality metrics of an ontology, in order to evaluate ontologies in an objective and reproducible manner, and providing a mechanism for assisting users and developers making informed decisions. Methodology 1. Analysis of the state of the art in ontology representation, ontology languages, ontology evaluation, standards of software quality and software metrics. 2. Definition of the OQuaRE framework for ontology quality evaluation, based on SQuaRE, consisting (1) a quality model based on characteristics and sub-characteristics; (2) quality metrics; (3) associations between metrics and sub-characteristics; and (4) scale of the metrics’ scores to the range [1-5]. 3. Application of the OQuaRE framework to different domains ontologies (biomedical ontologies, cell types, units of measure). 4. Validation of the framework by comparing its results with those obtained by other methods of ontology evaluation such as Gold Standard, Competency Questions, human manual evaluation and evaluation of ontologies versions. 5. Evaluation of the method by a group of external experts. Results 1. A framework for evaluation the quality of ontologies OQuaRE, which consists in (1) the ontology quality model, with a set of quality characteristics and sub-characteristics; (2) a set of quality metrics; (3) list of associations subcharacteristic-metric; (4) the scales for transforming the scores of the metrics to the [1-5]. 2. The application of the framework to a set of ontologies from different domains has permitted to (1) identify the OQuaRE capacity to detect differences between different ontologies; (2) identify the strengths and weaknesses of sets of ontologies of the same domain, in terms of quality characteristics and sub-characteristics; (3) identify the usefulness of OQuaRE to evaluate methods and best practice guidelines for building ontologies; (4) evaluate the impact of the evolution of an ontology in its capacity to identify the effect of changes between versions; and (5) identify a set of characteristics, sub-characteristics and metrics useful for financial ontologies. Conclusions OQuaRE is a framework for evaluating ontologies which integrates several measures and criteria of ontology quality and groups them into a quality model based on the software quality standard ISO/IEC 25000: 2005 SQuaRE. OQUaRE evaluates the quality of ontologies in an objective and reproducible way, and includes traceability between characteristics, sub-characteristics and quality metrics, which permits to analyse the properties of an ontology at different granularity levels. OQuaRE contributes to informed decision making because it identifies the strengths and weaknesses of an ontology in terms of quality characteristics and subcharacteristics. OQuaRE serves as a basis for assessing the structure of an ontology, ranging from functional aspects to technical ones, and it can be applied for ontologies from different domains. OQuaRE is a customisable framework that allows to incorporate new metrics and associations subcharacteristic-metric, to create or redefine scales for each community. The associations Feature-subcharacteristic-metric enable a better understanding of the links between the characteristics of an ontology and quality criteria, along with a clearer view of the metrics and their useful in evaluating ontologies.
257

An approach for model-driven data reengineering = Un enfoque de reingeniería de datos dirigido por modelos

Bermúdez Ruiz, Francisco Javier 22 January 2016 (has links)
Objetivos Esta tesis se centra principalmente en la aplicación de técnicas MDE a un proceso de reingeniería de datos. En concreto, analizamos en que medida el uso de modelos facilita la implementación de una mejora de la calidad en los datos de un sistema legado mediante la conversión de esquemas, que es un escenario común de modernización. La conversión de esquemas implementada en nuestra solución aborda la inferencia de restricciones de integridad referencial (declaradas en base de datos como claves ajenas) junto con la comprobación y corrección de los niveles de normalización en un esquema de datos. Se deben proporcionar diferentes técnicas para el descubrimiento de claves ajenas para obtener resultados más fiables. Además, se ha proporcionado automatización al proceso de migración mediante una herramienta software que soporta la definición y ejecución de procesos de migración y que ha sido validada através tomando como caso de estudio nuestro proceso de reingeniería de datos. Por otro lado, las soluciones MDE requieren de la integración con herramientas de terceros, en nuestro caso para la automatización del proceso de normalización. Este requisito nos condujo a desarrollar una solución arquitectónica para facilitar la interoperabilidad de herramientas y poder así integrar otras herramientas en nuestro proceso MDE. Podemos identificar los siguientes objetivos para la tesis: • Una implementación de un proceso de reingeniería de datos mediante el uso de técnicas MDE. La herramienta soporta la comprobación automática del nivel de normalización de la base de datos y su corrección. • Uso de diferentes estrategias para la inferencia de claves ajenas en la etapa de restructuración del proceso de reingeniería. • La construcción de una herramienta capaz de automatizar el desarrollo de procesos de reingeniería basados en modelos. • Abordar la interoperabilidad basada en modelos mediante la construcción de un puente bidireccional entre herramientas. Metodología Se ha aplicado la metodología DSRM (Design Science Research Methodology) que consiste en 6 actividades: (1) identificación del problema y motivación, (2) definición de los objetivos de la solución, (3) diseño y desarrollo, (4) demostración, (5) evaluación y (6) conclusiones y comunicación. Resultados Describimos a continuación las contribuciones de la tesis organizadas según los objetivos identificados. Proceso de Reingeniería de Datos Hasta nuestro conocimiento, este trabajo es una de las primeras contribuciones proporcionando una valoración del uso de MDE in la reingeniería de datos. El enfoque es validado mediante un sistema legado real, ampliamente usado en la industria sanitaria en Canadá: OSCAR. Hemos contrastado además nuestro trabajo con enfoques tradicionales de reingeniería de datos, y hemos identificado algunos beneficios e inconvenientes de aplicar MDE, lo que nos permite dar una valoración de en qué medida MDE es aplicable en estos escenario Estrategias de Descubrimiento de Claves Ajenas Se ha abordado el problema de la inferencia de claves ajenas y la combinación de diferentes técnicas de reingeniería. Herramienta de Migración Encontramos tres contribuciones en la herramienta: (1) es la primera propuesta que ejecuta procesos basados en modelos mediante la generación de tareas automáticas y manuales que son integradas en un entorno de desarrollo; (2) es una de las primeras experiencias mostrando cómo una solución MDE puede ser usada para construir herramientas de soporte para la definición y ejecución de procesos, así como la gestión de tareas de migración; (3) se presenta una solución para el soporte de procesos de migración implementados con tecnologías MDE. Interoperabilidad de Herramientas Se ha abordado la implementación de una arquitectura MDE orientada a conectar herramientas. Se ha contribuido además a analizar y discutir a cerca como MDE es capaz de tratar diferentes escenarios de interoperabilidad. / Goals This thesis is mainly focused on applying MDE techniques to a data reengineering process. In particular, we analyse to what extent the use of models facilitates the implementation of the data quality improvement of a legacy system by means of a schema conversion, which is a common data modernisation scenario. The schema conversion implemented in our approach addresses the elicitation of implicit referential integrity constraints (declared in database by foreign keys) along with checking and fixing the appropriate normalisation level in a schema. Several techniques for discovering foreign keys should be combined in order to obtain more reliable results. Furthermore, an automation of migration processes is tackled. We have built a tool that supports the definition and enactment of migration processes, which have been validated for the data migration case study. In addition, MDE solutions normally require the integration with a third-party tool which allows an automatic normalisation step. This requirement leads us to develop an architectural solution to ease tool interoperability and then to integrate other useful tools (from the data engineering and requirement areas) to the migration process here proposed. Ee can therefore infer the following objectives of this thesis: • An implementation of a data reengineering process by using MDE techniques. An automatic checking of the database normalisation level in the relational schema is supported. • Using of different strategies in order to elicit foreign keys for the restructuring stage of the process. • Building a tool able to automate the development of model-driven reengineering processes. • To tackle the MDE-base tool interoperability through the building of some bidirectional bridge. Methodology We have followed the design science research methodology (DSRM) which consists of six activities: (1) problem identification and motivation, (2) define the objectives of a solution, (3) design and development, (4) demonstration, (5) evaluation and (6) conclusions and communication. Results We shall describe next the contributions of this thesis. They will be categorised according to the goals identified. Data Reengineering Process To the best of our knowledge, this work is one of the first contributions to provide an assessment of the use of MDE in data reengineering. The approach is showcased by means of an information system that is widely used in the healthcare industry in Canada: OSCAR. We have contrasted our work with the tasks usually performed in traditional approaches and have identified some benefits and drawbacks of applying MDE techniques, which could enable us to assess to what extent MDE could be applicable to other problems. Strategies of FK Discovering We devise a process for reengineering legacy information systems with respect to establishing referential integrity constraints and combining existing reengineering methods. Migration Tool There are three contributions in the tool proposed: (1) it is the first proposal that enacts process models by executing automated tasks and generates programming manual tasks which are integrated into a task management tool; (2) our work is one of the first experiences showing how an MDE approach can be used to build a tool supporting software development processes from the definition of software processes to the management of the tasks to be performed by managers and developers; (3) we present a solution to support migration processes that have been implemented with MDE technologies. Tool Interoperability We have devised a model-based architecture aims to bridge the gap between tools. The MDE techniques have proven useful to ease and extend the interoperability capabilities of DB-Main. We contribute to analyse and discuss through this case study how MDE can address several interoperability scenarios.
258

A novel, identity-based network architecture for the future internet= Una arquitectura de red basada en identidad para la internet del futuro

Martínez Juliá, Pedro 18 December 2015 (has links)
Con el trabajo realizado en la presente tesis hemos definido una nueva arquitectura de red que presenta un modelo de red diferente para la Internet del Futuro (Future Internet, FI). Hemos abordado los problemas encontrados en el modelo de red actual mediante la introducción del concepto de identidad, entendida como un conjunto de atributos, en las capas intermedias de la red. Nuestra propuesta radica en utilizar una capa de identidad que permita a los objetos de red (network objects) controlar su participación en el mundo digital, creando un panorama, en la esfera de las comunicaciones, que es singular, único y optimizado para cada entidad de red, dando lugar a un plano de identidad que permita a las entidades encontrarse siguiendo un modelo identidad-a-identidad que permite considerar todos los aspectos de las comunicaciones: “con quién estoy hablando”, la confianza que tengo, o incluso la localización donde está teniendo lugar la comunicación. Estos atributos afectan tanto a la seguridad como a la privacidad y están relacionados con la identidad de los participantes. En nuestro trabajo de investigación hemos ahondado también en la discusión acerca de la separación de identificadores y localizadores, extrayendo los requisitos más importantes y generalizando este concepto en la dirección de desacoplar los procesos de identificación y localización. Manteniendo el mismo objetivo, separar la identificación de los elementos del direccionamiento de hosts en la red, la arquitectura propuesta enfatiza el proceso de identificación de forma independiente a los mecanismos subyacentes que se utilizan para direccionar los mensajes en la red. Además, nuestro diseño se ve influenciado por la necesidad de un mecanismo integrado para el descubrimiento de entidades en FI que no requiera la interacción humana, así como la necesidad de una adaptación dinámica de las comunicaciones a los entornos cambiantes en los que tienen lugar. Con el fin de proveer los bloques funcionales apropiados, que incluyan las funcionas necesarias que se han comentado hasta ahora, partiendo de la base de dotar al sistema de la capacidad de evolución y manteniendo desacoplados los procesos de identificación y localización, hemos definido los objetivos principales de la tesis de la siguiente forma: Diseñar, analizar y validar una arquitectura de red altamente modular y evolutiva para la Internet del Futuro, que abstraiga los extremos de comunicación de hosts a objetos de red arbitrarios mediante el uso de sus identidades (conjuntos de atributos) como mecanismo que les permita descubrir, direccionar y comunicarse entre ellos de forma dinámica, inequívoca, segura y privada, en un entorno heterogéneo y cambiante. Para alcanzar estos objetivos hemos diseñado un conjunto de bloques funcionales que trabajan conjuntamente, formando una arquitectura de red completa, o por separado, para proveer cualidades adicionales a otras arquitecturas. Estos componentes son el Domain Trusted Entity Infrastructure (DTEi), el Identity-Based Network Protocol (IBNP), el Ontology-based Distributed Information Network (ODIN), y el Identity-Based Control Plane (IBCP). Aunque estos bloques funcionales están estrechamente relacionados entre sí y acoplados hasta cierto punto, mantienen su independencia para proveer su función de red sin necesidad de desplegar otro componente. Para finalizar, hemos validado las distintas soluciones diseñadas por medio de modelos analíticos y prototipos implementados sobre plataformas reales, evaluando sus funcionalidades, seguridad, factibilidad y rendimiento. Además, hemos integrado las funciones que ofrece nuestra arquitectura con otras arquitecturas de red, particularmente HIMALIS y MOFI, siendo ambas arquitecturas destacadas para FI que a su vez representan dos visiones diferentes de la evolución de la red. Dichas integraciones nos han permitido demostrar la utilidad de nuestros diseños, estableciendo interrelaciones sólidas e identificando tópicos abiertos de investigación para el futuro. / A Novel, Identity-Based Network Architecture for the Future Internet Abstract With the work carried out in this thesis we have defined a new network architecture that provides a new network model for the Future Internet (FI). We have addressed the problems found in the network model found in the current Internet by introducing the concept of identity, seen as a set of attributes, to the middle layers of the network. We propose to use an identity layer that enables network entities (objects) to control their involvement in the digital world, creating a view in the communication sphere which is singular, unique, and optimized for every network entity, thus building an identity plane that allows entities to address each other in an identity-to-identity approach that considers all aspects of communications: “to who I am talking to”, the trust I have, or even the location where this is taking place. These attributes affect security and privacy and are related to the identity of the participants. During our research we also delve into the discussion about the separation of identifiers and locators, extracting the crucial requirements behind such approach and generalize the target as decoupling identification and location processes. The objective is the same, to separate node identification from host addressing in the network, but our architecture emphasizes the identification process itself, regardless of the underlying mechanisms to address information among network entities. Moreover, our design is influenced by the need for a better discovery mechanism in the FI that does not require human interaction, as well as the need of a dynamic adaptation of communications to the changing environments where they are taking place. Targeting the provision of proper functional blocks with the necessary functions stated so far, and with the basis established in the ability of evolution as well as the decoupling of identification and location, we define the main objectives of this thesis as follows: To design, analyze, and validate a highly modularized and evolvable network architecture for the Future Internet that abstracts the communication endpoints from hosts to arbitrary network objects by using their identities, seen as attribute sets, as the mechanism to enable them to dynamically discover, address, and communicate each other in an unequivocal, secure, and private way over an heterogeneous and changing environment. In order to achieve such objectives we designed a set of functional blocks that are able to work together, forming a complete network architecture, or separately to provide some additional qualities to other architectures. These components are the Domain Trusted Entity Infrastructure (DTEi), the Identity-Based Network Protocol (IBNP), the Ontology-based Distributed Information Network (ODIN), and the Identity-Based Control Plane (IBCP). Although these functional blocks are closely related to each other, as well as coupled to some extent, they retain their independence so each of them is able to provide its target network function without needing to fully deploy any other. Finally, we validated the designed approaches by means of analytical models and prototype implementations, evaluating their functionality, security, feasibility and performance. Moreover, we have integrated the functions provided by the architecture we designed with other network architectures, particularly HIMALIS and MOFI, which are outstanding architectures for the FI, representing two different visions of the evolution of the network. These integrations allowed us to demonstrate the usefulness of our research results, establishing strong interrelations and identifying open research topics for the future.
259

Authorization and trust management in distributed systems based on the semantic web = Gestión de la autorización y la confianza en sistemas distribuidos aplicando la web semántica

Bernal Bernabé, Jorge 21 December 2015 (has links)
Tesis por compendio de publicaciones / Motivación y Objetivos Cualquier sistema distribuido como Cloud Computing se enfrenta a diferentes retos de seguridad, como son la autenticación, autorización, privacidad o la gestión de la confianza. Sin embargo, se precisan sistemas de autorización y confianza avanzados y con altos niveles de expresividad que hayan sido diseñados expresamente para Cloud Computing. La gestión de la seguridad en sistemas distribuidos como Cloud Computing puede llevarse a cabo, mediante el uso de políticas y reglas de seguridad aplicadas sobre modelos de sistema y seguridad enriquecidos semánticamente. El enfoque de la Web Semántica permite realizar razonamiento deductivo y procesos de inferencia sobre los modelos, permitiendo deducir conclusiones de seguridad que a su vez pueden ser usadas para tomar decisiones de autorización y confianza. Además de la gestión de la autorización de los recursos de forma independiente por cada tenant, los clientes en el mismo cloud pueden necesitar colaborar entre ellos para satisfacer necesidades avanzadas de sus servicios, lo que requiere de modelos de autorización y confianza intra-cloud para gestionar tales colaboraciones. Los usuarios demandan interacciones entre diferentes clouds para realizar operaciones tales como migraciones de datos y servicios. Se necesitan nuevas soluciones para permitir a los proveedores de servicios de cloud (CSPs) que puedan interactuar de forma segura estableciendo federaciones de clouds, paradigma conocido como Intercloud. En este sentido, el análisis de la seguridad y la confianza que puede llegar a ofrecer un proveedor de servicios de cloud es un campo de investigación que despierta un elevado interés. Los clientes y CSPs podrían beneficiarse de un sistema de ayuda a la decisión relativo a seguridad y confianza en entornos Intercloud. Este sistema podría deducir información y tomar decisiones en consecuencia, tales como rechazar o evitar determinadas interacciones entre CSPs o servicios. El paradigma del Internet de las Cosas requiere de modelos adaptados para la gestión y cuantificación de la confianza con el fin de que dispositivos desconocidos a priori puedan interactuar entre ellos de forma segura y confiable. Los modelos de control de acceso en IoT deben ser más livianos para poder tratar las comunicaciones directas entre dispositivos (a veces con características hardware reducidas), y tener en cuenta los valores de confianza de los dispositivos antes de realizar las transacciones. Dados los retos de investigación relativos a gestión de la confianza y la autorización en sistemas distribuidos destacados anteriormente, los principales propósitos de la presente tesis doctoral pueden ser son los siguientes: • Analizar y diseñar un modelo de autorización, altamente expresivo, diseñado especialmente para Cloud Computing que se apoye en técnicas de la Web Semántica. • Analizar y diseñar las diferentes relaciones de confianza que puedan establecerse en Cloud Computing entre los diferentes tenants, incrementando de esta forma la seguridad del cloud. • Analizar el estado del arte relativo a seguridad y confianza en sistemas distribuidos, Cloud Computing y especialmente en Intercloud. • Analizar los requerimientos de seguridad en Cloud Computing definiendo en consecuencia una taxonomía y ontología completas para el Intercloud. • Diseñar, implementar y validar un sistema de ayuda a la decisión relativo a seguridad y confianza que se apoye en técnicas de la Web Semántica con el fin de mejorar la toma de decisiones, cuantificando expectativas de seguridad e índices de confianza sobre CSPs. • Diseñar, implementar y validar un modelo de confianza para el Internet de las Cosas (IoT), que pueda ser aplicado junto a un sistema de autorización que tenga en cuenta los índices de confianza calculados por el modelo. Metodología La presente tesis doctoral vio sus comienzos con un estudio del estado del arte que nos llevó a empezar a definir modelos semánticos de sistemas de información y de seguridad con el fin de realizar razonamiento sobre dichos modelos usando políticas enriquecidas semánticamente. Concretamente, descubrimos que había una carencia de modelos de autorización altamente expresivos haciendo uso de la Web Semántica que pudieran gestionar de forma adecuada la complejidad de sistemas distribuidos como Cloud Computing. Los modelos de autorización actuales para Cloud Computing, aunque eficientes, están condicionados debido a sus posibilidades de expresividad semántica y, como consecuencia, limitados en cuanto a capacidades de autorización. Después del estudio de aplicabilidad de las técnicas de la Web Semántica para autorización en Cloud Computing, propusimos un modelo de autorización (Capítulo 1), basado en la Web Semántica, por lo que permite realizar razonamiento e inferencia, otorgando un mecanismo muy potente para tomar decisiones de control de acceso. Los tenants deberían poder establecer alianzas y coaliciones federadas para sacar máximo partido de sus servicios. Este escenario ocasiona diferentes problemas y retos de seguridad como la gestión del control de acceso intra-cloud, ya que deberían disponer de medios para restringir y definir qué información estará disponible para con otros tenants que compartan la misma infraestructura cloud subyacente. Para llenar este vacío, realizamos un análisis y estudio de los tipos de colaboraciones, que consideramos más importantes, y que podrían llegar a ocurrir entre los tenants de un mismo cloud, que dio como resultado una taxonomía que define los diferentes tipos de relaciones de confianza entre tenants (Capítulo 2). Asimismo, además de las relaciones intra-cloud entre tenants, los clientes y proveedores de cloud están empezando a requerir escenarios incipientes de Intercloud, donde diferentes clouds interaccionan más allá de un único proveedor. Aunque existen algunos resultados de investigación para gestión de Intercloud, hay muy pocas propuestas relacionadas con la seguridad y los aspectos de confidencialidad en el Intercloud. Con el fin de llenar este vacío, realizamos un estudio riguroso del estado del arte en el Intercloud, analizando los aspectos de seguridad y confianza en este entorno distribuido y nos centramos en una ontología destinada a definir formalmente los aspectos de seguridad modelados en una evaluación de seguridad Intercloud (Capítulo 3). Por último, hemos querido abordar el control de acceso y gestión de la confianza no sólo en los sistemas distribuidos más centrados en plataforma como Cloud Computing, sino también en otros escenarios más descentralizados M2M. Hemos diseñado un mecanismo de seguridad, aprovechando un sistema de autorización IoT ya existente llamado DCapBAC, que mejora dicho sistema de autorización para que tenga en cuenta valores de confianza calculados por el modelo de confianza (Capítulo 4). Resultados Los primeros resultados derivados del análisis y diseño de un sistema de control de acceso para Cloud Computing se presentaron en ``International Conference on Security and Cryptography'' (SECRYPT), en el artículo ``Towards an Authorization System for Cloud Infrastructure Providers''. La propuesta se basa en la Web Semántica, que permite inferir nuevos conocimientos que permiten soportar diferentes características avanzadas de autorización, superando ciertas carencias de expresividad de modelos de autorización predecesores, como el RBAC, hRBAC, cRBAC y HO. Seguidamente realizamos una investigación minuciosa de los diferentes tipos de relaciones de confianza que pueden establecerse entre tenants en el cloud. El resultado quedó reflejado en el artículo ``Taxonomy of trust relationships in authorization domains for Cloud Computing'', que fue publicado en la revista The Journal of Supercomputing. El análisis realizado concluyó con la descripción formal de las diferentes relaciones de confianza en Cloud Computing, permitiendo la definición de diferentes acuerdos de colaboración en diferentes escenarios cloud. Los resultados de investigación sobre Intercloud se muestra en el artículo ``Intercloud Trust and Security Decision Support System: an Ontology-based approach'', publicado en la revista Journal of Grid Computing. En este trabajo analiza las diferentes áreas de seguridad, propiedades y métricas que pueden ser necesarias en la evaluación de la seguridad de un CSP. Estos conceptos se han modelado en la ontología SOFIC ofreciendo un alto grado de interoperabilidad en escenarios Intercloud, y que se puede tomar como punto de partida para cuantificar expectativas de seguridad y valores de confianza de servicios y CSPs. Por último, en relación con la gestión de la confianza en IoT, nuestros resultados de investigación han sido publicados en la revista Soft Computing, en un artículo con el título ``TACIoT: multidimensional trust-aware access control system for the Internet of Things''. El artículo proporciona un modelo de confianza para IoT y mejora el sistema de control de acceso DCapBAC para que pueda tener en cuenta los valores de confianza calculados por el modelo tomar decisiones de autorización en consecuencia. / Motivation and Goals Cloud Computing, like any other kind of distributed system, has to face different challenges regarding security, such as authorization and trust management. However, there is a lack of advanced and high expressive authorization and trust models specially meant for this emerging parading. .Security management in distributed systems like Cloud Computing, can be carried out by means of applying security policies and rules over system and security models enriched semantically. The Semantic Web approach allows performing deductive reasoning and inference processes to come up with meaningful security conclusions. In addition to the management of access control for each tenant, cloud tenants within the same cloud may need to collaborate to meet client demands, which requires new authorization and trust relationships models to manage such intra-cloud collaborations. Customers’ demands to interactions across clouds to be able to migrate data and applications across different clouds in a reliable and secure way. This situation creates a need for new solutions that allow different Cloud Service Provider (CSP) to be interoperable with each other in a secure manner, coming up with federations of clouds, also known in the literature as Intercloud. In this sense, the analysis of the security and trust of a given CSP in order to establish reliable collaborations is an open research field that sparks a lot of interest. Additionally, in this regard, clients and CSPs could also take advantage of a trust and security decision support system for the Intercloud in order to make security decisions accordingly, based on the ontology, such as dismiss or avoid interactions with certain CSPs or services based on these deductions. The Internet of Things paradigm requires adapted trust quantification models in order to provide a reliable environment, thereby enabling unknown smart objects to interact each other in a trusted way. Access control models in IoT should be more lightweight to address the direct communication requirements of constrained devices, taking into account target devices' trust values prior any transaction. Due to the challenges of trust management and authorization in distributed environments highlighted above, the general objectives of this PhD Thesis, the concrete goals pursued within this thesis, are the following: • Analyse and design a novel and high expressive authorization model specially meant for Cloud Computing relying on Semantic Web technologies. • Analyse and design the trust relationships in Cloud Computing between cloud tenants in order to establish a reliable environment. • Analyse the state of the art of security and trust in distributed systems, Cloud Computing and the Intercloud. • Analyse the security requirements in Cloud Computing and define accordingly a full Intercloud security taxonomy and ontology. • Design, implement and validate a trust and security decision support system, relying on Semantic Web techniques, in order to assist in the Intercloud security decision making process, quantify security expectations and trustworthiness about CSPs. • Devise and implement an advanced trust model for Internet of Things to allow making authorization decisions based on this quantified trust values. Methodology This PhD Thesis started by performing a survey that allowed us to start defining system and security models and performing reasoning over them using semantic policy rules, coming up with a powerful mechanism to manage the security of distributed systems. Concretely, we discovered that there was a lack of a high expressive authorization model based on the Semantic Web, that would be able to handle the complexity of distribute systems like Cloud Computing. Current authorization models for distributed systems are efficient, but at the same limited by their poor semantics, and therefore, by their limited authorization features. After studying the applicability of Semantic Web techniques for authorization in Cloud Computing, we proposed an authorization model (Chapter 1) that is based on the Semantic Web, so that it enables performing inference reasoning to come up with meaningful security conclusions that can be used to make authorization decisions. Cloud tenants within the same cloud can collaborate each other to establish alliances and set up coalition agreements. Nonetheless, these agreements raise new security challenges, such as intra-cloud access control management. To bridge this gap, we performed an analysis and study of the different kind of collaborations that may occur among cloud tenants, coming up with a taxonomy defining different levels of trust relationships among customers of the cloud (Chapter 2). Furthermore, in addition to intra-cloud relationships among tenants, customers and CSPs are starting to require Intercloud scenarios where different clouds have to interact each other beyond one single cloud domain. Although there are some proposals to manage the Intercloud, there are still few approaches dealing with the associated new security and trust challenges in such a federated environment. In order to address this problem, we made a deep analysis of the state of the art in the Intercloud, analyzing the security and trust in this distributed environment. As a result we came up with an ontology aimed to formally describe the security aspects that are subject to be modelled in an Intercloud security assessment (Chapter 3). The ontology is based on security standards and it has been tailored extensible to cope with the security requirements of different Intercloud scenarios. Finally, we wanted to address the access control and trust management challenge not only in enterprise-centric distributed systems like Cloud Computing, but also in more decentralized ones. In this sense we designed a security mechanism to leverage an already existing IoT authorization system called DCapBAC, with our novel trust model that takes into account not only reputation, as it is commonly employed in traditional peer to peer (P2P) scenarios, but also some other advanced aspects to quantify trust (Chapter 4). Results The first results derived from the analysis and design of a semantic-aware access control system for Cloud Computing was presented in the International Conference on Security and Cryptography (SECRYPT), in a paper entitled ``Towards an Authorization System for Cloud Infrastructure Providers''. The proposal is based on Semantic Web technologies and allows inferring new knowledge and supporting different authorization features such as role based access control (RBAC), hierarchical RBAC (hRBAC), conditional RBAC (cRBAC) and hierarchical objects (HO). Next, we investigated further into the different kinds of trust relationships that can occur in Cloud Computing, and the outcome was reflected in the article entitled ``Taxonomy of trust relationships in authorization domains for Cloud Computing'', which was published in The Journal of Supercomputing. The accomplished analysis ended up with a formal description of the different trust relationships in Cloud Computing, enabling the definition of different collaboration agreements in different scenarios. The research carried out regarding trust and security in the Intercloud is shown in the paper ``Intercloud Trust and Security Decision Support System: an Ontology-based approach'', which published in the Journal of Grid Computing. In this work we have analyzed and identified the security areas, properties and metrics required when assessing the security of a CSP. These concepts have been modeled in the SOFIC ontology to support a high degree of interoperability in the Intercloud. Besides, the ontology can be taken as a starting point to quantify expectations and trust values of cloud services as well as supporting CSPs and tenants in the Intercloud security decision making process. Finally, regarding the trust model for the Internet of Things, our research results were published in the Soft Computing journal, in a paper entitled ``TACIoT: multidimensional trust-aware access control system for the Internet of Things''. The paper provides a trust model leveraging the DCapBAC access control system to take into account devices' trust values to make authorization decisions accordingly.
260

Entorno para la inteligencia de negocio basada en tecnologías semánticas

Esteban Gil, Ángel 22 December 2015 (has links)
Objetivos: La Inteligencia de Negocio (IN) requiere de la integración de diversas fuentes de datos que se suelen encontrar en las organizaciones y en sus entornos. El conocimiento generado por estas organizaciones se encuentra distribuido en sistemas heterogéneos o está en formatos en los que es prácticamente imposible su clasificación (imágenes, vídeos, etc.). En esta tesis se proponen metodologías y herramientas para generar una solución de Inteligencia de Negocio basada en tecnologías semánticas que permita integrar cualquier fuente de datos. Además aportará grandes ventajas en el ámbito de la IN 2.0, ya que integra información de redes sociales. Por último, y como principales novedades, la solución propuesta será capaz de generar cuestionarios semánticos que aporten nuevo conocimiento e integrará una herramienta para medir y evaluar los activos de conocimiento. Entre los servicios de generación de conocimiento que ofrece esta solución destacan: (1) evaluar los activos de conocimiento de cualquier organización, (2) realizar análisis personalizados de cada una de las actividades, (3) recomendar las medidas que se deben llevar a cabo, y (4) analizar el impacto que esas medidas han tenido en la organización a nivel cuantitativo y cualitativo. Metodología: Para conseguir este objetivo, primero se lleva a cabo un estudio del estado del arte que incluye las tecnologías de IN existentes en el mercado, las tecnologías de la Web Semántica y su aplicación en este dominio, la Web 2.0, los sistemas de integración de datos, el procesamiento analítico en línea (OLAP) y los métodos de evaluación de activos de conocimiento. La solución propuesta se basa en la definición de: (1) un modelo de integración semántica de cualquier tipo de contenido, estructurado y no estructurado, (2) un modelo de entrega de información basado en tecnologías semánticas, (3) un modelo de evaluación de activos de conocimiento, y (4) un modelo de explotación y análisis de la información. Estos modelos serán integrados en una plataforma Web que permita integrar, analizar y explotar los datos de cualquier tipo de información. Los resultados obtenidos serán validados en los siguientes dominios: económico-financiero, evaluación del desempeño, clínico y de apoyo a la investigación biomédica. Resultados: Las principales contribuciones son: (a) diseño de un modelo de evaluación de activos de conocimiento basado en tecnologías semánticas, (b) diseño de un modelo de generación de perfiles semánticos de recursos, (c) diseño e implementación de un generador gráfico de consultas SPARQL, (d) diseño de un modelo para la generación de cuestionarios semánticos, (e) diseño de un modelo para la recomendación basado en funciones de similitud, (f) diseño de un modelo para la recomendación basado en redes bayesianas, (g) cuadros de mando semánticos, y (h) puesta en producción de tres soluciones semánticas que están operativas actualmente. Gracias a estos módulos se han desarrollado y validado cinco soluciones completamente operativas: (1) red social semántica, (2) plataforma semántica para la planificación, (3) plataforma semántica para Inteligencia de Negocio con bases de datos epidemiológicas, (4) cuaderno de recogida de datos semánticos y (5) plataforma para la clasificación semántica de recursos basada en contenidos multimedia. Conclusiones: En este trabajo se han definido una serie de metodologías e implementado un conjunto de herramientas que permiten integrar, entregar información y analizar los datos usando tecnologías semánticas. Esas tecnologías permiten que los usuarios, sin ayuda de personal experto en TIC, puedan configurar buscadores avanzados, generar cuadros de mando personalizados, realizar planes estratégicos y evaluar su impacto, y establecer análisis complejos a partir de perfiles semánticos. Además, gracias al uso de tecnologías semánticas se han sentado las bases para que se pueda enlazar con fuentes de datos externas y realizar análisis comparativos con otras organizaciones. / Objectives: BI requires the integration of several data sources. In many cases, data are distributed among heterogeneous systems or in formats where the classification of images or videos is nearly impossible. Furthermore, the lack of formal models for exploiting organisations is a problem with personalised analyses, and when linking to external resources or comparing companies is required. This thesis proposes methodologies and technologies for building BI solutions using semantic technologies that meet the essential requirements for this type of platforms. In the scope of BI 2.0, this proposal also integrates information from social networks. The solution proposed is able to generate semantic questionnaires that add new knowledge and integrate a methodology for measuring and evaluating the knowledge. The following services should be pointed out: (1) to perform personalised analysis of every company's activities, (2) to evaluate the knowledge in any organisation, (3) to recommend the actions to be carried out and (4) to analyse the impact of these actions in the organisation. Methodology: The first step followed in this thesis consists in the analysis of the state of art of Business Intelligence, Semantic Web, Web 2.0, information integration, On-Line Analytical Processing (OLAP) and evaluation of knowledge assets. The definition of the approach includes: (a) a study of the integration model for building a semantic repository, (b) development of an integration process for adding new semantic information, (c) development of a graphical tool for defining SPARQL queries, (d) development of a generic model for evaluation of knowledge assets, (e) development of a method for defining reduced representations of data for efficient analysis, and (f) the study and selection of solutions for exploiting the information generated in previous phases. All these proposed solutions are implemented in a web platform. The semantic BI platform has been validated in several domains, like financial, performance evaluation, and biomedical research. Results: The main contributions of this work are: (a) design of an evaluation model based on semantic knowledge technologies, (b) design of a semantic model for generating resource profiles, (c) design and implementation of a SPARQL queries generator driven by ontologies, (d) design of a model for the generation of semantic reports, (e) design of a model for the recommendation based on similarity functions, (f) design of a model for the recommendation based on Bayesian networks, (g) customisable semantic dashboards and (h) three out of the six evaluation use cases are running in real environments. These approaches have been successfully implemented and validated in five solutions: (1) semantic social networks, (2) semantic platform for strategic planning, (3) semantic platform for epidemiological analysis, (4) semantic case report form, and (5) semantic platform for multimedia content analysis. Conclusions: In this thesis we have defined a set of methodologies and implemented a set of tools to integrate, deliver information and analyse data using semantic technologies. These technologies allow users, without the help of ICT experts, to configure advanced search engines, build custom dashboards, make strategic plans, evaluate their impact, and do complex analyses from semantic profiles. Furthermore, thanks to the use of semantic technologies, we have established the bases to link to external data sources and comparative analysis with other organisations.

Page generated in 0.038 seconds