• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 11
  • Tagged with
  • 52
  • 52
  • 36
  • 21
  • 13
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Metodologías basadas en minería de datos para el diseño y optimización de técnicas de clasificación automática

Martínez España, Raquel 19 December 2014 (has links)
La motivación para el desarrollo de esta tesis doctoral se centra en la problemática de la escasez de técnicas de Análisis Inteligente de Datos que trabajen de forma directa con datos imperfectos. Esto ha estado provocado debido al avance de las nuevas tecnologías las cuales han permitido el almacenamiento de grandes volúmenes de información compuestos de diferentes tipos de datos no siempre tan precisos y perfectos como sería deseable. El objetivo global, y por tanto, los objetivos parciales, se encuentran centrados en el desarrollo de técnicas del Análisis Inteligente de Datos que hagan uso de las metodologías que ofrece el Softcomputing para trabajar con datos imperfectos (datos de baja calidad) de forma directa, sin necesidad de una transformación previa. Específicamente, la tesis se centra en las fases de Preprocesamiento de Datos y de Minería de Datos del Análisis Inteligente de Datos. Por una parte, en la fase de Minería de Datos, se proponen las extensiones de tres técnicas. Concretamente, un árbol de decisión fuzzy, un ensamble de árboles de decisión fuzzy y una técnica basada en vecindad. Para la extensión del árbol de decisión fuzzy y del ensamble se ha definido una medida de similitud para calcular el grado de pertenencia de un valor de baja calidad a cada uno de los descendientes de un nodo N dado. Para la extensión de la técnica basada en vecindad (regla k-NN) se ha definido una serie de medidas distancia para calcular la distancia entre los ejemplos y sus vecinos teniendo presente que estos pueden contener datos de baja calidad. Por otra parte, en la fase de Preprocesamiento se propone el diseño e implementación de un conjunto de técnicas que soporten datos de baja calidad. Concretamente, las técnicas presentadas abarcan los procesos de discretización de atributos numéricos, la selección de atributos, la selección de ejemplos y la imputación de valores missing. En la discretización de atributos se ha diseñado una técnica híbrida compuesta por un árbol de decisión fuzzy y un algoritmo genético. La técnica de selección de atributos propuesta es un algoritmo híbrido compuesto por una técnica de filtrado y una técnica wrapper. Por otro lado la técnica de imputación se basa en el diseño de una nueva regla para la técnica de K-NN y para el proceso de selección de ejemplos se ha utilizado la idea básica de una técnica de condensación de ejemplos, con el fin de seleccionar los más representativos. Además se ha desarrollado una herramienta software que recoge parte de las técnicas de preprocesamiento de datos propuestas y desarrolladas a lo largo de la tesis. El objetivo de esta herramienta software, llamada “NIP imperfection processor” (NIPip), es proporcionar un marco de trabajo común donde los investigadores puedan llevar a cabo un preprocesamiento sobre conjuntos de datos bien para añadirles datos de baja calidad o bien para transformar dicho datos de baja calidad en otros tipos de datos. Como conclusión final debemos comentar que las técnicas propuestas y extendidas, y tras realizar un conjunto de experimentos validados estadísticamente, han mostrado un comportamiento robusto, estable, muy satisfactorio y optimista tanto cuando trabajan con datos de baja calidad como datos crisp. Además la herramienta software propuesta aporta un nuevo marco de trabajo, y una mayor flexibilidad y rapidez a la hora de preprocesar datos tanto de baja calidad como crisp, lo cual es muy importante para el diseño de experimentos a gran escala. / The motivation for the development of this doctoral thesis is focused on the problem of the shortage of techniques of Intelligent Data Analysis, working directly with imperfect data. This has been caused by the advance of new technologies which have allowed the storage of large volumes of information of different types composed of data that are not always as precise and perfect as desired. The global aims, and therefore partial objectives, are focused on the development of techniques of Intelligent Data Analysis making use of methodologies provided by Softcomputing to work directly with imperfect data (low quality), without a need for previous transformation. Specifically, the thesis is focused on the Intelligent Data Analysis phases of data preprocessing and data mining. On the one hand, in the phase of data mining, the extensions of three techniques have been proposed. Specifically, a fuzzy decision tree, an ensemble of fuzzy decision trees and a technique based on neighborhood. For the extension of the fuzzy decision tree and the ensemble techniques a similarity measure has been defined. This measure is used to calculate the membership degree of a low quality value to each of the descendants of a given node N. For the extension of the technique based on neighborhood (k-NN rule) a set of distance measures to calculate the distance between the examples and their neighbors has been defined, bearing in mind that the examples may contain low quality data. On the other hand, the design and implementation of a set of techniques, that support low quality data, is proposed in the preprocessing phase. In particular, the techniques presented include the processes of discretization of numerical attributes, of attribute selection, of example selection and of missing value imputation. In the discretization of attributes, a hybrid technique has been designed. This technique is composed of a fuzzy decision tree and a genetic algorithm. The attribute selection technique proposed consists of a hybrid algorithm composed of a filtering technique and a wrapper technique. In addition, the imputation technique is based on the design of a new rule for the technique K-NN. For the process of example selection, the basic idea of a condensation technique of examples has been used, in order to select the most representative examples. Also, a software tool has been developed. This tool includes part of the data preprocessing techniques proposed and developed in this doctoral thesis. The aim of this software tool, called "NIP imperfection processor" (NIPip) is to provide a common framework where researchers can perform preprocessing on datasets either to add low quality data to them or to transform this low quality data into other types of data. As a final conclusion, it must be emphasized that the proposed and extended techniques, after performing a set of statistically validated experiments, have shown robust, stable, very satisfactory and optimistic behavior both when working with low quality data and when working with crisp data. Also, the software tool proposed provides a new framework, and greater flexibility and speed in the data preprocessing both low quality and crisp, which is very important for the design of large-scale experiments.
22

Modernización dirigida por modelos de interfaces gráficas de usuario= Model-driven modernisation of legacy graphical user interfaces

Sánchez Ramón, Óscar 19 December 2014 (has links)
Son numerosas las empresas que se enfrentan actualmente a la modernización de los sistemas heredados (legacy systems) que fueron desarrollados con entornos RAD (Rapid Application Development), con el objetivo de beneficiarse de las nuevas plataformas y tecnologías. Como parte de estos sistemas, las interfaces gráficas de usuario (GUIs, Graphical User Interfaces) son una parte importante, dado que es lo que los usuarios ven y manipulan. En las modernizaciones de GUIs de aplicaciones creadas con entornos RAD los desarrolladores deben tratar con dos problemas no triviales. El primero consiste en que el layout de la GUI (esto es, la organización espacial de los controles en las ventanas de la aplicación), se define implícitamente por las coordenadas que definen las posiciones de los controles. Sin embargo, para sacar provecho de las características que ofrecen las tecnologías actuales de GUIs se hace necesario un modelo de layout explícito de alto nivel. El segundo problema es que los desarrolladores tienen que tratar con el código de los manejadores de eventos que con frecuencia mezclan diferentes aspectos la aplicación, como la presentación y la lógica de negocio. Además, afrontar la migración de la GUI de un sistema heredado, esto es, programar de nuevo la interfaz es costoso para las empresas. Esta tesis pretende abordar estos problemas por medio de una arquitectura de Desarrollo de Software Dirigido por Modelos (DSDM) que automatice la migración de la interfaz de de aplicaciones creadas con entornos RAD. Para tratar con el primer problema proponemos un enfoque que descubre el layout que está implícito en las coordenadas de los controles. La idea subyacente consiste en trasladar el sistema de posicionamiento basado en coordenadas a una representación basada en relaciones entre controles, y entonces usar esta representación para inferir el layout en términos de gestores de layout (layout managers). Hemos desarrollado dos versiones de este enfoque: una solución voraz y otra más sofisticada basada en un algoritmo exploratorio. Con el objeto de tratar con el segundo problema hemos creado un enfoque de ingeniería inversa que analiza los manejadores de eventos de las aplicaciones creadas con entornos RAD. En nuestra solución, el código de los manejadores de eventos se transforma en una representación intermedia que captura el comportamiento de alto nivel del código. Esta representación facilita la separación de aspectos. En particular nos ha permitido separar los aspectos arquitecturales del código original e identificar las interacciones existentes entre los controles. Todos los modelos generados en el proceso de ingeniería inversa se han integrado en un modelo de Interfaz de Usuario Concreta que representa los diferentes aspectos que abarca una GUI. Tanto las dos propuestas de inferencia del layout como el análisis de los manejadores de eventos han sido testeados con aplicaciones reales que fueron desarrolladas en Oracle Forms. La versión del algoritmo de inferencia exploratorio fue adicionalmente testeada con esbozos (wireframes) de la interfaz, lo que demuestra la utilidad de la solución de inferencia del layout en escenarios distintos a la migración. / Businesses are more and more modernising the legacy systems they developed with Rapid Application Development (RAD) environments, so that they can benefit from new platforms and technologies. As a part of these systems, Graphical User Interfaces (GUIs) pose an important concern, since they are what users actually see and manipulate. When facing the modernization of GUIs of applications developed with RAD environments, developers must deal with two non-trivial issues. The first issue is that the GUI layout is implicitly provided by the position of the GUI elements (i.e. coordinates). However, taking advantage of current features of GUI technologies often requires an explicit, high-level layout model. The second issue is that developers must deal with event handling code that typically mixes concerns such as GUI and business logic. In addition, tackling a manual migration of the GUI of a legacy system, i.e., re-programming the GUI, is time-consuming and costly for businesses. This thesis is intended to address these issues by means of an MDE architecture that automates the migration of the GUI of applications created with RAD environments. To deal with the first issue we propose an approach to discover the layout that is implicit in widget coordinates. The underlying idea is to move from a coordinate-based positioning system to a representation based on relative positions among widgets, and then use this representation to infer the layout in terms of layout managers. Two versions of this approach has been developed: a greedy solution and a more sophisticated solution based on an exploratory algorithm. To deal with the second issue we have devised a reverse engineering approach to analyse event handlers of RAD-based applications. In our solution, event handling code is transformed into an intermediate representation that captures the high-level behaviour of the code. From this representation, separation of concerns is facilitated. Particularly it has allowed us to achieve the separation of architectural concerns from the original code, and the identification of interactions among widgets. All the generated models in the reverse engineering process have been integrated into a Concrete User Interface (CUI) model that represents the different aspects that are embraced by a GUI. The two layout inference proposals and the event handler analysis have been tested with real applications that were developed in Oracle Forms. The exploratory version of the layout inference approach was in addition tested with wireframes, which pose a different context in which the layout inference problem is also useful.
23

Mejora de sistemas de gestión de identidades centrados en el usuario mediante modelos de reputación en entornos distribuidos= Enhancing user-centric identity management systems with reputation models in distributed environments

Dólera Tormo, Ginés 31 October 2014 (has links)
Tesis por compendio de publicaciones / Objetivos Los sistemas de gestión de identidades establecen relaciones de confianza entre distintas organizaciones, de manera que la información de los usuarios es gestionada por una entidad confiable Cuando los usuarios acceden a un servicio en Internet, las funciones de autenticación y gestión de datos de los usuarios es delegada al proveedor de identidad. Sin embargo, estos sistemas, presentan numerosas carencias aún hoy día, especialmente en lo que se refiere al control que tiene el usuario sobre su propia información. Las soluciones actuales escasamente informan a los usuarios acerca de hacia dónde viaja su información personal. Estas dificultades se ven incrementadas cuando dichos sistemas de gestión de identidades han de ser desplegados en entornos distribuidos. Una alternativa que viene implantándose exitosamente, en los últimos años, para gestionar la confianza en entornos distribuidos viene dada por los sistemas de gestión de reputación. En estos sistemas, la confianza que se puede depositar en una entidad dada está basada en experiencias pasadas que se han tenido con dicha entidad. Aunque se ha avanzado favorablemente tanto en la gestión de identidades como en la gestión de reputación, la integración de ambos conceptos no es inmediata en entornos distribuidos. Por tanto, en esta tesis se pretende: • Analizar el estado del arte en cuanto a los sistemas de gestión de reputación aplicables a escenarios de gestión de identidades. • Diseñar y sugerir soluciones que permitan integrar sistemas de gestión de reputación en sistemas actuales de gestión de identidades centrados en el usuario, de manera que se informe a los usuarios apropiadamente antes de utilizar los servicios, y se gestione la confianza en entornos distribuidos. • Realizar un profundo análisis del comportamiento de dicha soluciones, utilizando distintos mecanismos para agregar las recomendaciones, y considerando usuarios y entidades maliciosas. • Proponer y analizar soluciones para mejorar la capacidad de adaptación de los sistemas de gestión de reputación actuales en entornos dinámicos. • Estudiar y plantear soluciones para aumentar la privacidad de los sistemas de gestión de reputación en el ámbito de los sistemas de gestión de identidades centrados en el usuario. Metodología Esta tesis doctoral tuvo como punto de partida el análisis del estado del arte de los sistemas de gestión de reputación, dentro del ámbito de los sistemas de gestión de identidades, y tomando como referencia las características intrínsecas de los entornos distribuidos. La idea era mejorar los sistemas de gestión de identidades para que estos informen a los usuarios apropiadamente antes de utilizar los servicios a los que dichos usuarios quieren acceder. De este modo, decidimos diseñar y analizar un modelo de gestión de reputación, aplicado en un sistema de gestión de identidades centrado en el usuario, distribuido y ampliamente extendido actualmente, como es el caso de OpenID. Como parte del análisis de la solución anterior, investigamos varios mecanismos para agregar las recomendaciones recolectadas de los usuarios, diferenciándose en su complejidad, requerimientos para hacerlos funcionar y en la capacidad para evitar usuarios malintencionados. Los resultados del análisis fueron positivos para demostrar la viabilidad del modelo. Sin embargo, el análisis de los distintos mecanismos para agregar recomendaciones puso de manifiesto la variabilidad de los resultados dependiendo del mecanismo escogido. Para solventar ese problema, ideamos y analizamos una solución capaz de seleccionar y activar el modelo de reputación más apropiado sobre la marcha, dependiendo de las condiciones del sistema y de las medidas de rendimiento deseadas. De esta manera, se tienen varios modelos de gestión de reputación disponibles, aunque solo uno de ellos permanece activo calculando los valores de reputación. Paralelamente, nos percatamos de la deficiencia de los sistemas de gestión de reputación a la hora de preservar la privacidad de los usuarios. Las recomendaciones que proporcionan los usuarios son consideradas como información privada, y distribuir libremente las mismas contradice uno de los principios de los sistemas de gestión de identidades, que consiste precisamente en proteger la privacidad de los usuarios. Así, tras un análisis del estado del arte en esta dirección, y tras estudiar la aplicabilidad de mecanismos de criptografía avanzada, propusimos un método orientado a la solución de dicha carencia. Utilizando técnicas de encriptación homomórfica, el método propuesto permite el cómputo de las recomendaciones proporcionadas por los usuarios, pero preservando la privacidad de las mismas. Resultados Los resultados de esta tesis han quedado esencialmente reflejados en los artículos que la componen. Así, el artículo titulado ``Towards the integration of reputation management in OpenID'' define un modelo de gestión de reputación y cómo éste puede ser aplicado a una versión extendida del protocolo definido por el estándar OpenID. Dicho modelo está basado en la idea de que los usuarios puedan proporcionar recomendaciones sobre un servicio, de manera que éstas sean agregadas por un proveedor de identidad de OpenID. El resultado de tal agregación puede ser proporcionado a los usuarios que pretendan utilizar el servicio. Estos resultados vienen complementados con los obtenidos en el artículo titulado ``Dynamic and Flexible Selection of a Reputation Mechanism for Heterogeneous Environments''. En ese trabajo presentamos un mecanismo capaz de seleccionar dinámica y automáticamente el modelo de reputación más apropiado. De esta manera, no se trata de desarrollar un modelo configurable, sino de tener varios modelos disponibles en espera, y activar el modelo más apropiado en cada momento (elegido según las reglas definidas), sin necesidad de parar o reconfigurar el sistema. Finalmente, en el artículo titulado ``Identity Management: In Privacy We Trust. Bridging the Trust Gap in eHealth Environments'' abordamos el problema de la falta de privacidad que presentan los sistemas de gestión de reputación de la literatura actual. Las recomendaciones proporcionadas por los usuarios, o la opinión que tienen las entidades entre sí, podrían ser consideradas como información privada, en el ámbito de la gestión de identidades. En ese artículo planteamos una solución que permite las ventajas que tiene compartir esa información para alimentar los sistemas de gestión de reputación, pero manteniéndola privada. Utilizando encriptación homomórfica, esta solución muestra como las recomendaciones de los usuarios y otros parámetros necesarios para realizar el cálculo de la reputación pueden ser computados, sin necesidad de revelar dichos valores. / Motivation and Goals Identity management systems establish trust relationships between different organizations, in such a way that the information of the users is handled by a trusted entity. When users access a service in the Internet, the authentication methods and users' data management is delegated to the identity provider. However, these systems present numerous shortcomings even nowadays, especially in the aspects related to the control that the users have on their own information. Current solutions barely inform the users on where their personal information is going. These difficulties are increased even further when identity management systems have to be deployed in distributed environments. An alternative that is being successfully deployed in recent years in order to manage trust in distributed environments is introduced by reputation management systems. In these systems, the trust that can be placed on a given entity is based on past experiences that others have been having with such an entity. Even though both identity management and reputation management have been positively developed, merging both worlds is not straightforward in distributed environments, since it raises a number of challenges that have to be taken into consideration. Thus, the goals pursued within this thesis are the following: • Analyze the current state of the art regarding reputation management systems applicable to identity management systems scenarios. • Design and suggest solutions allowing the integration of reputation management systems with current user-centric identity management systems, in such a way that the users are properly informed before using the offered services, and the trust is properly managed in distributed environments. • Perform a deep analysis of the behavior of such solutions, making use of different mechanism to aggregate recommendations, and considering malicious users and entities, too. • Propose and analyze solutions aimed to enhance the adaptability of the current reputation management systems in dynamic environments. • Explore and propose solutions to improve the privacy of current reputation management systems within the context of user-centric identity management systems. Methodology This PhD dissertation sets its starting point at analyzing the state of the art on reputation management systems, within the context of identity management systems, and taking the intrinsic characteristics of distributed environments as a reference. The idea was to improve identity management systems in order to properly inform the users before enjoying the services they want to consume, including environments where trust cannot be handled with static agreements. Thus, we decided to design and analyze a reputation management model applied to a user-centric identity management system, distributed and currently widely spread, which is the case of OpenID. As part of the analysis of the aforementioned solution, we proposed a number of mechanisms to aggregate the collected users' recommendations, differing in its complexity, requirements to make them work, and capabilities to prevent ill-intentioned users. The results of such analysis were positive in order to demonstrate the feasibility of the model. However, the analysis of the distinct mechanisms used to aggregate users' recommendations made us realize the variability of the results depending on the chosen mechanism. In order to address that problem, we came up with a solution able to select and activate the most appropriate reputation management model on-the-fly, depending on the system conditions and desired performance measurements. Hence, a number of reputation management models are available, although only one of them remains active computing reputation values. At the same time, we realized the lack of reputation management systems sensitive on preserving users' privacy. Users’ recommendations are considered private information, and freely distributing those recommendations opposes the principles of identity management systems, which aim to protect users' privacy. Therefore, after an analysis of the related work in that direction, and after studying the applicability of advanced cryptographic mechanisms, we proposed a method towards solving that shortcoming. Using homomorphic encryption techniques, the proposed method allows computing recommendations provided by the users, yet preserving the privacy of those recommendations. Results The results of this thesis are essentially exposed in the articles that compose it. Hence, the article entitled ``Towards the integration of reputation management in OpenID'' defines a reputation management method and how it can be applied to an extended version of the protocol defined by the OpenID standard. The solution is based on the idea that the users can provide recommendations about a service, in such a way that those feedbacks can be aggregated by an OpenID Provider. The result of such aggregation can be delivered to the users willing want to use the service. That is complemented with the outcomes of the article entitled ``Dynamic and Flexible Selection of a Reputation Mechanism for Heterogeneous Environments''. In that document, we present a mechanism able to dynamically and automatically select the most suitable reputation model. Hence, it is no longer a matter of having a configurable model, but a pool of idle ones instead, and activate the most appropriate model at each moment (chosen according to the defined rules), without needing to stop or reconfigure the system. Finally, in the article entitled ``Identity Management: In Privacy We Trust. Bridging the Trust Gap in eHealth Environments'', we address the lack of privacy that reputation system described in the current literature present. Recommendations provided by the users, or the opinion that the entities have among each other, could be considered as private information in the context of identity management. In that document, we propose a solution aimed to have the advantages of sharing that information in order to feed the reputation management systems, while keeping it private. By using homomorphic encryption, that solution shows how users' recommendations and other required parameters to perform the reputation aggregation can be computed, but without revealing those values to potential attackers.
24

Managing access control systems in distributed environments with dynamic asset protection = Gestión de sistemas de control de acceso de ambientes distribuidos orientada a la protección dinámica de activos de información

Díaz López, Daniel Orlando 30 November 2015 (has links)
Tesis por compendio de publicaciones / Motivación y Objetivos Un activo representa un componente de un sistema de información el cual tiene un valor para la organización. Los activos pueden verse afectados por incidentes de seguridad causando daños económicos, operacionales, de reputación o legales. En este contexto, un proceso de control de acceso bien definido es esencial para garantizar accesos autorizados, el cual permita tener seguridad sobre los activos y operatividad del negocio. Sin embargo, el control de acceso no está limitado a un dominio de seguridad, y puede ser aplicado a múltiples dominios que usan y comparten activos e intercambian elementos relacionados a la seguridad. Esta situación trae dos importantes desafíos por enfrentar: 1) La necesidad de proponer mecanismos para permitir la composición de políticas de control de acceso de diferentes organizaciones y 2) La necesidad de direccionar el proceso de toma de decisiones de autorización para tener en cuenta requisitos de privacidad, confidencialidad y autonomía. Adicionalmente, el proceso de control de acceso no es simple e integra muchas variables como la clase de actores, las motivaciones para llevar a cabo un compromiso de los datos, las categorías de activos, la confianza entre asociados empresariales, y otros factores circunstanciales. Esto trae la necesidad de proveer una protección dinámica de activos a través de la mejora del proceso de control de acceso que permita principalmente hacerlo más efectivo en la confrontación de amenazas de seguridad de la información, y más apropiado para un contexto expuesto a diferentes riesgos de seguridad. Por otra parte, acercándonos a la perspectiva de los usuarios, una gran cantidad de datos son capturados diariamente a través de nuestras interacciones personales con dispositivos TIC (Tecnologías de la Información y las Comunicaciones) o aplicaciones, construyendo la idea de que cada uno de nosotros tiene una “vida digital”. Estos datos podrían ser almacenados, procesados, y accedidos con posterioridad para diferentes propósitos como: fines productivos, de salud, legales o de entretenimiento, generando servicios “Live Digital”. En esta clase de sistemas, un proceso de control de acceso toma relevancia debido a que éste debería asegurar solamente el acceso de aplicaciones/usuarios autorizados a ciertas clases de datos personales basado en las restricciones definidas por el propietario de dichos datos. Así, el objetivo principal en esta tesis doctoral es desarrollar propuestas para la gestión de sistemas de control de acceso usando elementos innovadores y buscando su aplicabilidad en escenarios reales distinguidos por tener un notorio componente de autorización. De la misma forma, se definen los siguientes objetivos específicos: • Estudiar diseños de sistemas de control de acceso existentes, identificando sus principales limitaciones cuando son aplicados a situaciones de múltiples dominios de seguridad con activos compartidos (i.e. ambientes distribuidos). • Proponer una solución para una efectiva gestión de políticas en ambientes distribuidos que permita a los dominios de seguridad mantener cierta autonomía y confidencialidad. • Lograr una forma innovadora de proveer un proceso de control de acceso para activos de información que considere los riesgos de seguridad como parte del contexto de autorización. • Proponer una solución orientada a mitigar riesgos de seguridad en activos de información en una ventana de tiempo razonable y considerando los objetivos de seguridad de la organización. • Identificar desafíos de seguridad y privacidad a través del análisis de soluciones existentes en el área de sistemas Live Digital. • Proponer una arquitectura para soportar sistemas Live Digital con una aproximación prevalente a la seguridad de los datos y la privacidad, y con la posibilidad de aplicar los resultados obtenidos de los objetivos previos. Metodología Esta tesis doctoral ha sido elaborada como resultado de diferentes estancias en sectores de I+D (Investigación y Desarrollo) e industria dentro del área de seguridad de la información, principalmente en NLE (NEC Laboratories Europe) en Alemania, con una continua orientación del Departamento de Ingeniería de la Información y las Comunicaciones (DIIC) de la Universidad de Murcia en España. Las actividades iniciales se iniciaron con la propuesta y desarrollo de mejoras para un motor XACML alojado en NLE, la mayoría de ellas relacionadas con el módulo PDP (Policy Decision Point), y con el módulo PAP (Policy Administration Point). A partir de ahí surgieron algunas ideas acerca de cómo trasladar las funcionalidades de un motor de autenticación y autorización a un ambiente distribuido y colaborativo compuesto por diferentes unidades de negocio. Consecuentemente, una arquitectura para administrar políticas de control de acceso en ambientes distribuidos fue propuesta y desarrollada, la cual consideró y resolvió diferentes aspectos relacionados con la comunicación entre partes, la administración de políticas de control de acceso y la seguridad de las comunicaciones. A continuación, otra oportunidad de investigación surgió enfocada en algoritmos que pudieran ayudar a determinar la decisión de autorización apropiada para regular el acceso a un activo, pero también pudieran contribuir a mitigar un riesgo de seguridad identificado como parte de un proceso de valoración del riesgo bien definido. En este punto, y como parte de esta tesis doctoral, se definió una propuesta de modelo para la adopción de contramedidas dinámicas que cambian en el tiempo para enfrentar las variaciones en el nivel de riesgo medido para cada recurso, basándonos para ello en algoritmos genéticos. Con el objeto de considerar una situación cercana al dominio del usuario en donde los sistemas de control de acceso podrían representar un elemento clave para garantizar la seguridad y privacidad, exploramos el estado del arte y los desafíos de los sistemas Live Digital. Este contexto trajo la oportunidad de usar algunos de los hitos logrados previamente en esta tesis relacionados a la gestión de políticas de control de acceso en ambientes distribuidos y el uso de contramedidas dinámicas en el proceso de decisión de autorización. Adicionalmente se hizo una completa revisión de trabajos que podrían tener una aproximación hacia sistemas Live Digital y un estudio de las arquitecturas de estos sistemas con el propósito de encontrar funcionalidades y limitantes existentes. Resultados Los primeros resultados de esta tesis doctoral están descritos en el artículo “Managing XACML systems in distributed environments through Meta-Policies”. Este artículo hace una extensión de las funcionalidades ya conocidas de un sistema de control de acceso que actúa dentro de un dominio de seguridad, hacia un contexto compuesto de múltiples dominios de seguridad en el cual se requiere coordinación con el fin de resolver apropiadamente todas las solicitudes de autorización. Adicionalmente este artículo ofrece un conjunto de operaciones de administración, que combinadas con un conjunto de Meta-Políticas bien definidas, permiten tener un ambiente distribuido con muchos motores de control de acceso realizando comunicación y coordinación entre ellos. Luego, desarrollamos una propuesta de adopción de contramedidas dinámicas cambiando a lo largo del tiempo para dar respuesta a las variaciones en el nivel de riesgo de cada recurso en el artículo “Dynamic countermeasures for risk-based access control systems: An evolutive approach”. Este trabajo propone un modelo el cual genera conjuntos de contramedidas ajustadas tomando en cuenta factores (atributos) relevantes para una clase de activos y para un nivel de riesgo específico. Con esta propuesta hay dos beneficios principales: i) Aplicación de un proceso de gestión de riesgos para garantizar una protección dinámica de activos y ii) Gestión de privilegios sobre activos a través de un sistema de control de acceso. Finalmente, diferentes desafíos identificados para sistemas Live Digital, complementado con características que deben estar presentes en estos sistemas fueron planteadas y descritas en el artículo “Live digital, remember digital: State of the art and research challenges”. Este artículo también propone una arquitectura para soportar las características identificadas previamente, así como una descripción de los elementos para soportar un servicio seguro en el lado cliente y servidor. Dentro de los desafíos se incluyen: acceso selectivo, recolección selectiva y seguridad y privacidad transversal, los cuales pueden ser abordados con soluciones como las propuestas en los artículos previos que conforman esta tesis doctoral. / Motivation and Goals An asset represents a component of an information system which has some value for an organization. The assets can be affected by security incidents causing economical, operational, reputational or legal affectations. In this context, a well-defined access control process is essential to guarantee authorized accesses which in turn allow assets security and business operability, known in the literature as balance between security and utility. However, the access control is not limited to one security domain, and can be applied to a situation of different domains using and sharing assets, and exchanging security assertions, which generates situations of composition of authorization decisions. This situation brings two important challenges to face: 1) The need to propose mechanisms to allow the composition of access control policies from different organizations in order to achieve a right authorization decisions making process, and 2) The need to take into account privacy, confidentiality and autonomy requirements into the authorization decisions making process. Additionally, the access control process is not simple and integrates many variables like kind of actors, data breach motivations, asset categories, impact of the data breach, trust between partners, and other circumstantial factors. This brings the need to provide a dynamic asset protection through the improvement of the access control process. The improvements to the process should allow mainly to make it more effective facing information security threats, and more appropriated for a context exposed to different security risks. Additionally, getting closer to the user's perspective, a big amount of data is captured daily through our personal interactions with ICT devices or applications in general, building up the idea that each one of us has a “digital life”. This historical data could be stored, processed and subsequently accessed for different kind of purposes like: productive, healthy, legal or entertainment, generating “live digital” services. In this kind of systems, an access control process also takes relevance as it should ensure that only authorized users/applications access certain types of personal data based on restrictions defined by the data owner. Thus, the main goal in this PhD Thesis is to develop proposals for the management of access control systems using innovative elements and pursuing its applicability in real scenarios which are distinguished for having a noticeable authorization component. In the same way, the next specific goals are defined: • Study existing designs of access control systems, identifying their main limitations when applied to multiple security domains with shared assets (i.e. distributed environments). • Propose a solution for an effective policy management in distributed environments which allows security domains to maintain certain autonomy and confidentiality. • Achieve an innovative access control process to assets which considers the security risks as part of the authorization context. • Propose a solution aimed to mitigate security risks in assets in a reasonable time frame and considering the security objectives of an organization. • Identify security and privacy challenges through the analysis of existing solutions in the area of live digital systems. • Propose an architecture to support live digital systems with a prevailing data security and privacy approach and with the possibility to apply results obtained in previous objectives. Methodology This PhD Thesis has been elaborated as a result of different internships in R&D (Research and Development) and industrial sectors within the area of information security, mainly at NLE (NEC Laboratories Europe) in Germany, with a continuous guidance from the Department of Information and Communications Engineering (DIIC) of the University of Murcia in Spain. First activities started with the proposition and development of improvements for an XACML engine developed by NLE, most of them related with the PDP (Policy Decision Point) module and with the PAP (Policy Administration Point) module. Then, some inquiries and ideas emerged on how to translate the functionalities of an authentication and authorization engine to a distributed and collaborative environment composed by different business units, each one constituting an independent security domain. Consequently, an architecture to manage access control policies in distributed environments was proposed and developed, which considered and resolved different aspects related to the communication between parties, the management of access control policies and the securing of the communications. Then, another opportunity of research appeared focused on algorithms that could help in the process of finding the appropriate authorization decision to regulate the access to an asset, but also to contribute to mitigate an identified security risk as part of a well-defined risk assessment process. Here, we defined a proposal for the adoption of dynamic counter-measures changing along time to face variations in the measured risk level for every resource, based on genetic algorithms. In order to consider a situation more in the user domain where access control systems could represent a key element to guarantee security and privacy, we explored the state of the art and challenges of live digital systems. This context brought the opportunity to use some of the previous findings in this PhD thesis related to the management of access control policies in distributed environments and the dynamic counter-measures used for the authorization decision process. We made a complete revision of works that could have an approach to live digital systems and a study of the architecture of these systems in order to find existing functionalities and shortcomings. Results The first results of this PhD Thesis are detailed in the paper “Managing XACML systems in distributed environments through Meta-Policies”. This paper makes an extension of the already-known functionalities of an access control system working for one security domain, toward a context composed of multiple security domains (and therefore multiple access control systems) which need to be coordinated in order to resolve appropriately all the authorization requests. It also offers a set of administration operations, which combined with a set of well-defined Meta-Policies, allows having a distributed environment with many access control engines performing communication and coordination between them. Subsequently, we developed a proposal of adoption of dynamic counter-measures changing along time to face variations in the risk level of every resource in the paper entitled “Dynamic counter-measures for risk-based access control systems: An evolutive approach”. This paper proposes a model which generates sets of customizable counter-measures taking into account factors (attributes) relevant for a kind of asset and for a specific risk level. With this model there are two main benefits, namely: i) Application of a risk management process to guarantee a dynamic asset protection and ii) Management of privileges over assets through a risk-based access control system. Finally, different challenges identified for live digital systems, along with features that have to be present in these systems were posed and described in the paper “Live digital, remember digital: State of the art and research challenges”. This paper also proposes an architecture to support the wished features identified previously, and makes a description of the required elements to support a secure service in the client and server side. These challenges are included for these systems: selective-access, selective-gathering and transversal security and privacy, which can be tackled with solutions like the ones proposed in the previous papers of this PhD Thesis.
25

Desarrollo de un modelo para la gestión de la I+D+i soportado por tecnologías de la web semántica

García Moreno, Carlos 13 November 2015 (has links)
OBJETIVOS El principal objetivo de esta tesis doctoral es (i) el desarrollo del primer modelo completo, concreto e integrado para la gestión del proceso de la I+D+i, identificando los flujos de información entre los distintos procesos y los elementos que lo componen, de forma no lineal, siendo a la vez un modelo flexible, aplicable a cualquier organización con independencia de sus características específicas, y apto para la innovación tanto individual como colaborativa. Los otros dos objetivos esenciales del trabajo realizado son: (ii) el desarrollo de las tecnologías necesarias para proporcionar el soporte automatizado e inteligente a la gestión de la I+D+i, en base al modelo construido; y (iii) la integración de las tecnologías desarrolladas en un caso de aplicación en un entorno empresarial real, para validar tanto su eficacia como su utilidad. METODOLOGÍA Para la construcción del modelo propuesto para la gestión de la I+D+i en primer lugar se realizó un análisis exhaustivo de las normativas seleccionadas como referencia, identificando las inexactitudes, incoherencias y faltas de concreción que éstas presentan. Se propusieron soluciones a estos aspectos y se detallaron los componentes del modelo y las relaciones y flujos de datos entre ellos. De esta forma se habilita el desarrollo de soluciones software que permitan proporcionar un soporte automatizado e inteligente a la gestión de la I+D+i en base a una gestión optimizada del conocimiento relacionado con ella. En base a ese modelo se desarrollaron las tecnologías de la Web Semántica para hacer posible el mencionado soporte, incorporándolas a una plataforma de gestión de ideas para proyectos de I+D+i. el soporte inteligente a este proceso propuesto como ejemplo se basa en la identificación de una serie de similitudes entre componentes del sistema de gestión de la I+D+i que tienen influencia en el mismo. Para ello estos son los principales desarrollos realizados: (i) ontología del dominio de la gestión de la I+D+i; (ii) sistema de extracción semántica estructurada, encargado de generar el modelo semántico asociado; (iii) repositorio semántico que complementa a la ontología del dominio; y (iv) sistema semántico para proporcionar el soporte inteligente a través de la identificación de similitudes entre distintos tipos de entidades del repositorio semántico. Para ello se han tomado como base desarrollos previos del grupo de investigación al que pertenecen los directores de esta tesis doctoral. CONCLUSIONES A pesar de que la I+D+i actualmente tiene una importancia crucial para el éxito y la supervivencia de las organizaciones, a su vez plantea una serie de retos, riesgos y dificultades a los que aún no se ha dado respuesta por medio de ninguna de las metodologías propuestas ni de los sistemas desarrollados para el soporte a su gestión. Las principales carencias de estos modelos y soluciones TIC radican en que ninguno contempla la gestión de la I+D+i desde un punto de vista integrado, no siendo posible prestar un soporte inteligente a este proceso por medio de una gestión optimizada del conocimiento. A través de la validación llevada a cabo en un entorno empresarial real se ha demostrado la validez, tanto del modelo para la gestión de la I+D+i creado, como de las tecnologías semánticas desarrolladas, solventando las carencias identificadas en el estado del arte. Aparte se han mostrado aspectos interesantes acerca del comportamiento de este proceso bajo distintas circunstancias. Asimismo se ha demostrado la influencia crucial de la calidad de la información incorporada en el sistema en la riqueza y precisión del soporte inteligente prestado. / OBJECTIVES The main objective of this thesis is: (i) the development of the first comprehensive, concrete and integrated model for R&D&I management, identifying the information flows between the different processes and elements that compose it, in a non-lineal way, being at the same time a flexible model applicable to any organization regardless of its specific characteristics, and suitable for both individual and collaborative innovation. The other two key objectives of the work are: (ii) the development of the technologies needed to provide automated and intelligent support to R&D&I management, based on the created model; and (iii) the integration of the developed technologies in a real business environment application case, to validate both its effectiveness and usefulness. METHODOLOGY In order to develop the proposed R&D&i management model, first a comprehensive analysis of the selected reference normative was made, identifying the inaccuracies, inconsistencies and lack of specificity that they have. Solutions to these issues were proposed and model components (and relationships and data flows between them) were detailed. In this way the development of software solutions to provide automated and intelligent support to R&D&i management through an optimized knowledge management is enabled. Based on this model, Semantic Web technologies were developed to enable this support, incorporating them in an R&D&i idea management platform. Intelligent support to this proposed as an example process is based on the identification of several similarities between the components of the R&D&i management system that influence it. In order to achieve that, following are the main developments made: (i) R&D&i management domain ontology; (Ii) semantic structured extraction system, for generating the associated semantic model; (Iii) semantic repository that complements the domain ontology; and (iv) semantic system, for providing intelligent support by identifying similarities between different types of entities in the semantic repository. These are based on previous developments of the thesis directors research group. CONCLUSIONS Although R&D&i currently has a crucial importance for the success and survival of organizations, at the same time it implies several challenges, risks and difficulties that has not been already solved by any of the proposed methodologies and systems developed to support its management. The main weaknesses of these models and ICT solutions are that none of them faces the R&D&i management from an integrated point of view, so it is not possible to provide intelligent support to this process through an optimized knowledge management. The validation, carried out in a real business environment, has demonstrated the validity of the developed R&D&i management model and the corresponding semantic technologies for solving the shortcomings identified in the state of art. Moreover, interesting aspects about the behaviour of this process in different circumstances have been shown. The crucial influence on the quality of the system information in the richness and precision of the intelligent support provided has also been demonstrated.
26

Integración de información biomédica basada en tecnologías semánticas avanzadas

Legaz García, María del Carmen 28 July 2015 (has links)
Objetivos La medicina traslacional requiere la explotación integrada de información biomédica para dar soporte a la investigación, sin embargo, resulta difícil el acceso al conocimiento biomédico, por ser heterogéneo y estar distribuido entre distintos sistemas de información. El objetivo principal de esta tesis es la investigación y desarrollo de soluciones basadas en las tecnologías de la Web Semántica para la integración de conocimiento biomédico utilizado en medicina traslacional. Metodología Para conseguir este objetivo, primero se lleva a cabo un estudio del estado del arte que incluye los formatos de representación más comunes de la información biomédica, las tecnologías de la Web Semántica y su aplicación en el ámbito biomédico, las propuestas de transformación de contenidos a representación semántica y los sistemas de integración de repositorios heterogéneos. Después, la solución propuesta se formaliza en tres pasos: (1) formalización de una metodología de transformación genérica de información, (2) formalización de un proceso de integración de recursos heterogéneos basado en transformación a una ontología OWL, (3) formalización de una plataforma de integración, gestión y explotación de información biomédica. Todas estas soluciones se implementan en herramientas web. Por último, las soluciones propuestas se validan en cuatro escenarios diferentes: clasificación automática de pacientes a partir de sus datos clínicos dentro un programa de cribado de cáncer de colon y recto; transformación entre modelos clínicos CEM y arquetipos openEHR; creación de un repositorio integrado de genes ortólogos, enfermedades y anotaciones sobre secuencias genómicas; representación OWL de bases de datos de componentes químicos. Resultados Como resultado se obtiene: • Un modelo de transformación genérica de datos. Está compuesto de reglas de correspondencia que permiten la transformación de instancias de entrada a una representación según un modelo de salida, de reglas de identidad que identifican instancias redundantes, y que usa patrones de diseño para realizar transformaciones más complejas. • Un modelo de integración de información biomédica heterogénea, que aplica el modelo de transformación y tiene como modelo de salida una arquitectura ontológica (ontología OWL y patrones de diseño de contenido ontológico) para la transformación e integración de recursos heterogéneos en un repositorio único. • Una plataforma de integración, gestión y explotación de información biomédica, que explota distintas representaciones OWL de modelos clínicos e incluye métodos de validación, anotación, comparación, y búsqueda semántica, además de permitir la ejecución de procesos de transformación e integración. • Dos herramientas web que implementación las soluciones. SWIT realiza la transformación de información a representación RDF/OWL, mientras que ArchMS implementa la plataforma integrada que permite la gestión y explotación de modelos y datos clínicos y su explotación en repositorios semánticos junto a otros recursos biomédicos externos. Conclusiones Los estándares de información clínica tratan de favorecer la interoperabilidad semántica de la información, mientras que propuestas como Linked Open Data fomentan la publicación y enlazado de los datos biomédicos. Sin embargo, los lenguajes utilizados para representar modelos clínicos resultan insuficientes para su gestión, mientras que la mayoría de métodos de publicación de datos en la Web de Datos no tienen en cuenta la semántica del contenido y son difíciles de generalizar. Utilizar modelos globales basados en ontologías OWL en la transformación e integración de contenidos permite definir una transformación dirigida por la semántica del dominio y utilizar esta semántica para explotar el repositorio final. OWL permite validar y comparar el contenido atendiendo a su semántica y facilita la integración de recursos. Las herramientas desarrolladas han demostrado ser efectivas en su utilización en distintos escenarios de validación, creando repositorios semánticos abiertos que contribuyen al desarrollo de la Web de Datos y permitiendo su explotación en el espacio tecnológico de la Web Semántica. / Summary Aims of the thesis Translational medicine requires intensive collaboration between different areas of biomedical informatics. However, this collaboration is difficult due to the fact that the biomedical knowledge generated by the different disciplines has the quality of being distributed and heterogeneous. This thesis aims to assist translational research by improving the integrated exploitation of biomedical information through the use of Semantic Web technologies. Methodology The methodology proposed is based on the analysis of the state of art, the formalization of the proposed methods, their implementation and their validation in application domains. The analysis of the state of art includes the study of the most common representation formats for biomedical information, the application of Semantic Web technologies to the biomedical domain, methods of content transformation to semantic representation and existing proposals for integrating heterogeneous repositories. The proposed solution is formalized in three steps: (1) formalization of a generic methodology for semantic data transformation, (2) formalization of a heterogeneous resources integration process based on the transformation into an OWL ontology, (3) formalization of an integrated platform for managing and exploiting the biomedical information. All these proposed solutions are implemented in web tools. The solutions have been validated in four different scenarios: study of clinical data from patients of a colorectal screening program for performing automatic classification of the patients; transformation between CEM clinical models and openEHR archetypes; creation of an integrated repository about orthologous genes, genetic disorders and information about genomic sequences annotations; transformation of a dataset of chemical components into an OWL representation. Results The main contributions of this work are: • A generic data transformation model between structured representation schemata. The definition of mappings transforms input instances into a representation guided by the output model. Identity rules identify redundant instances. The accepted input and output models are defined by a metamodel and the use of design pattern allows making more complex transformations. • A heterogeneous biomedical information integration model. Through the instantiation of the transformation model with an output model defined by an ontological architecture (OWL ontology and ontology design content patterns), different heterogeneous resources are transformed and integrated. • A platform for integrating, managing and exploiting biomedical information. The platform selects the most suitable OWL representations for clinical models and includes semantic methods for validating, annotating, comparing and searching together with the defined transformation and integration models. • Implementation of the transformation and integration models, and the integrated platform in two web applications. SWIT implements the transformation model while AchMS implements the integrated platform. Conclusions Al the clinical level, Electronic Health Record standards intend the achievement of semantic interoperability, while initiatives like Linked Open Data pursues the publication and sharing of biomedical datasets. However, the syntactic nature of languages used for clinical models representation is not enough for their management, while methods for datasets publication in the Web of Data make a syntactic transformation, guided by the logical schema of the source representation and there exists problems in the generalization of the methods. The use of global models based on OWL ontologies for representing information content allows the definition of transformation processes driven by the domain semantics, which can be exploited in the final repository. An OWL representation allows the validation and comparison of the content attending to its semantic, making easier the integration of different resources. The developed tools have demonstrated their effectiveness in different validation scenarios, creating semantic open datasets that will contribute to the development of the Web of Data and allowing their exploitation in the Semantic Web technological space.
27

Percepción Artificial de Dibujos Lineales

Piquer Vicent, Ana 07 November 2003 (has links)
Los modeladores geométricos basados en percepción artificial de bocetos se han convertido durante la última década en una de las principales líneas de trabajo para obtener interfaces de diseño asistido por ordenador fáciles de usar y que potencien la creatividad del diseñador.En el capítulo de antecedentes de esta tesis se presenta un análisis amplio de la evolución de la percepción artificial de modelos tridimensionales contenidos en dibujos bidimensionales, también denominada reconstrucción tridimensional. Pero hay que puntualizar que esta tesis se limita a la reconstrucción tridimensional desde una única vista; puesto que es generalmente aceptado que la reconstrucción 3D desde múltiples vistas ortográficas requiere métodos radicalmente diferentes.Las técnicas de optimización matemática, que han sido las elegidas para la presente tesis, han sido utilizadas anteriormente con cierto éxito en los núcleos de reconstrucción 3D de algunos modeladores-a-partir-de-bocetos. La naturaleza de las formas que pueden ser reconstruidas con un enfoque basado en la optimización se extiende a poliedros cerrados, objetos abiertos de caras planas (planchas de metal doblado), modelos alámbricos (no-variedad) y superficies curvas más o menos simples (principalmente de revolución). Pero uno de los principales retos de la utilización de técnicas de optimización en la fase de reconstrucción tridimensional del modelo a partir del boceto sigue siendo la formulación matemática de las señales perceptuales. En efecto, las señales perceptuales, -también llamadas artefactos o regularidades, - son aquellas configuraciones o signos de una figura bidimensional que permiten interpretarla, reconocerla o imaginarla como la imagen de un objeto tridimensional. Hasta el momento muy pocas investigaciones han formulado matemáticamente estas señales perceptuales con rigor. En consecuencia, los trabajos conocidos han dejado definidas unas funciones objetivo un tanto pobres, cuyos ratios de éxito en la reconstrucción de modelos 3D a partir de dibujos 2D están por debajo de las expectativas de los potenciales usuarios. Otro inconveniente de esta técnica es que los procesos de optimización matemática pueden llegar a ser muy lentos si no están bien diseñados e implementados; lo que los invalida para su uso en cualquier sesión interactiva; en particular en un sistema de diseño asistido, en el que las pausas largas bloquean el proceso creativo del diseñador. En otras palabras, el usuario no siempre obtiene el modelo 3D que él ha imaginado mientras bocetaba, y cuando lo obtiene no siempre es con la rapidez imprescindible para no perder la concentración requerida en un proceso de diseño.En la presente tesis se han abordado los problemas descritos arriba. En primer lugar, se realizó un análisis de los métodos de optimización empleados por otros autores y la búsqueda, implementación y prueba de mejoras en el método de reconstrucción mediante optimización matemática. A continuación, y con la motivación de hacer una formulación de la función objetivo más eficiente para mejorar los tiempos de cálculo se comenzó por realizar un estudio de la naturaleza y la implementación numérica de las regularidades propuestas por autores anteriores. Dicho estudio descubrió algunas regularidades que consideramos "falsas", y permitió detectar algunas imperfecciones o errores en las formulaciones de algunas regularidades.Después de repasar todas las regularidades propuestas por otros autores, advertimos del gran potencial de una nueva regularidad: la simetría del modelo. En efecto, utilizar la simetría mejora el comportamiento de la optimización y es un concepto fundamental que la percepción visual humana utiliza. Además, muchos objetos fabricados son simétricos, tanto porque hace que los objetos sean más fáciles de interpretar y de fabricar, como por los requerimientos funcionales y estéticos. En otras palabras, la característica de simetría del modelo, frecuentemente es una intención explícita de diseño. En consecuencia, como aportación original de la tesis, se presenta un nuevo método para determinar automáticamente los planos de simetría de objetos poliédricos partiendo de una vista general de tipo axonométrico. El proceso se realiza en 2D (sobre el boceto), así que el resultado ofrece planos oblicuos de simetría: planos de simetría real vistos desde alguna dirección (desconocida).En el método propuesto en esta tesis un plano de simetría es el plano que contiene a un circuito que representa la sección que el plano de simetría le produce al modelo. Por tanto, un plano de simetría se obtiene de un conjunto de "líneas de simetría": una secuencia cerrada de ejes de simetría facial oblicua y aristas que forman un polígono de simetría. Para detectar los polígonos de simetría se aplica un conjunto jerarquizado de reglas perceptuales. El método requiere la detección previa de los ejes de simetría facial oblicua, que, a su vez, precisa del reconocimiento previo de las caras del modelo. Ambas detecciones previas deben realizarse sobre el boceto 2D. Los métodos existentes para detectar ejes de simetría facial oblicua y caras han sido mejorados y adaptados para cubrir las necesidades propias de la detección de polígonos de simetría.Detectar los planos de simetría no es suficiente para el objetivo de modelar a partir de bocetos. La simetría detectada debe utilizarse posteriormente para reconstruir modelos que resulten simétricos. Por ello, se ha desarrollado e implementado la nueva regularidad para la optimización basada en una nueva formulación de un modelo simétrico. La regularidad de simetría de modelo tiene capacidad para guiar el proceso de reconstrucción mediante optimización por sí sola. Numerosos ejemplos demuestran su buen comportamiento.Una extensión de este método se propone para los bocetos en que se detecta más de un plano de simetría. Consiste en utilizar uno de los planos de simetría para el proceso de optimización y el resto de planos de simetría para simplificar el modelo a reconstruir. En otras palabras, uno de los planos de simetría es utilizado como regularidad y el resto como restricciones. El resultado es que se obtienen modelos más fieles a la intención del diseñador (más simétricos), y con un menor esfuerzo de cálculo.Como complemento a esta tesis, se ha elaborado una primera versión "docente" de la aplicación de modelado mediante bocetos. Y como desarrollos futuros se presenta la posibilidad de construir los modelos sólidos utilizando directamente las señales perceptivas captadas en los bocetos para controlar motores geométricos con capacidades paramétricas/ variacionales.
28

Modelos para la mejora del rendimiento académico de alumnos de la E.S.O. mediante técnicas de minería de datos

Muñoz Ledesma, Antonio 14 January 2016 (has links)
El objetivo principal de este trabajo es la búsqueda de la mejora del Rendimiento Académico (RA) de los estudiantes de la E.S.O. utilizando como herramienta de análisis la Minería de Datos (a partir de la información tanto académica, personal como la de los tests psicométricos) y siguiendo las pautas que nos marca la Didáctica desde un punto de vista que proporciona el Enfoque Onto-Semiótico (EOS). Este enfoque nos viene dado desde la Didáctica de las Matemáticas, pero puede ser adaptado a cualquier otra área (y así ha sido planteado). La idea que se pretende transmitir es la de proporcionar un sistema que detecte determinados elementos que sirvan a los departamentos didácticos para la mejora del proceso de instrucción y así del RA del alumno. Se busca una mejora en el rendimiento de aquellos objetos (matemáticos o lingüísticos) usados por los alumnos en sus asignaturas a lo largo de la E.S.O., y que puedan afectar de forma colateral a su aprendizaje futuro en otras asignaturas de bachillerato o de la universidad. De manera adicional y complementaria, se ha hecho uso de la Minería de Datos para la cual se ha necesitado un conjunto de datos que represente el campo de estudio. Además, y mediante el uso de estas técnicas (árboles de clasificación, cluster y reglas) se ha caracterizado el proceso de aplicación por los departamentos didácticos de determinadas acciones a los estudiantes. Para dichas acciones se han obtenido buenos predictores que han sido validados, apreciándose la influencia de lengua y matemáticas sobre el resto de asignaturas. Como parte final, se ha procedido a construir un sistema de predicción que nos sirve como protocolo de asignación de una acción a un alumno por los departamentos Didácticos. Se han obtenido unas consecuencias de la aplicación del sistema predictivo haciendo uso de la noción de idoneidad didáctica según EOS sobre las reglas obtenidas, aportando una serie de indicadores. Estos indicadores nos dan información de las trayectorias didácticas del alumno, nos muestran si existe una dispersión en las trayectorias y si se hace necesario, reorientar las acciones realizadas por los Departamentos Didácticos, en el caso de que ésta sea alta para alguna de las Trayectorias Didácticas valoradas. La principal aportación de esta tesis es la introducción del aprendizaje computacional para trabajar sobre la experiencia acumulada y obtener modelos con las técnicas de Minería de Datos. Estos modelos nos muestran el comportamiento de los estudiantes, permitiendo al profesor redirigir las aptitudes del alumno, tratando de evitar un posible fracaso. Asimismo, el uso de estas técnicas nos han proporcionado modelos descriptivos que permiten a los departamentos didácticos, explorar y comprender los datos iniciales e identificar patrones, relaciones y dependencias que impactan en los resultados finales de las evaluaciones. En definitiva, ayudarán en la toma de decisiones tácticas y estratégicas, proporcionando una herramienta de predicción interpretable para el profesor. / The main objective of this study is to find ways to improve the Academic Performance (AP) of students at ESO (Secondary Education) through Data Mining (by drawing on the students’ personal and academic information as well as the results of psychometric tests) and in accordance with the didactic guidelines provided by the Onto-Semiotic Approach (OSA). While this approach is typically applied to research in Mathematics, it can be adapted to any other area of knowledge, as is suggested here. The idea behind this approach is to provide the different school departments with a set of tools to improve instruction and, in turn, the students’ AP. The aim is to improve the performance in the mathematical and linguistic objects that are used by students for all subjects throughout ESO and that may have a side effect on their learning at post-compulsory stages of their education, including college and university. To complement our analysis, we used Data Mining, which requires a set of data representing the scope of our study. Moreover, the use of these techniques (classification trees, cluster and rules) helped us to characterise the process of implementation of certain actions by the different school departments. For these actions have had good predictors that have been validated, appreciating the influence of language and mathematics on the other subjects. The final part of this study focuses on the development of a predictive system that enables the different school departments to establish an intervention protocol for each case. The effects of implementing this predictive system have been analysed in terms of didactic suitability as defined by the OSA, which has resulted in a number of indicators. These indicators provide information about the students’ academic progress and, as stated above, allow the different school departments to redirect their actions, if necessary, to address a specific deviation. The main contribution of this thesis would be the introduction of computational learning to make use of our expertise and Data Mining techniques to develop models that allow instructors to monitor the behaviour of their students and redirect their aptitudes to avoid a potential failure. Similarly, these techniques we have proporcionate descriptive models that enable the different school departments to explore and understand the initial data and to identify patterns, relationships and dependencies that have an impact on the students’ final results at the end of each term. In short, they will assist in tactical and strategic decision-making and provide teachers with an interpretable predictive tool.
29

Advanced authorization model for service and resource protection in distributed systems and cloud computing = Modelo avanzado de autorización para protección de servicios y recursos en sistemas distribuidos y computación cloud

Marín Pérez, Juan Manuel 22 January 2016 (has links)
Objetivos La computación Cloud (o Cloud computing) es un paradigma de computación donde los servicios e infraestructuras son dinámicos, y pueden escalar y distribuirse bajo demanda. Sin embargo, las compañías son reacias a su adopción debido a la falta de confianza en cuanto a seguridad y privacidad. Cuando los datos residen en el Cloud, residen fuera de la organización, lo que provoca una sensación de pérdida de control. Así, el sistema de control de acceso se convierte en una pieza clave, mientras que las actuales soluciones para Cloud no proporcionan suficiente expresividad para describir reglas avanzadas de autorización y federación para un acceso seguro a los recursos. Además, el traslado de los datos al Cloud implica confianza en el proveedor de servicio (CSP), lo que también provoca incertidumbre. ¿Estará el CSP accediendo a los datos para su propio beneficio? ¿Estará aplicando fielmente las reglas de autorización definidas por el usuario? Aunque estos aspectos normalmente son gestionados en base a acuerdos de servicio (SLAs), el CSP podría realmente acceder a los datos e incluso cederlos. Esta situación lleva a replantearse la seguridad y avanzar hacia una aproximación centrada en los datos (data-centric), donde los datos están auto-protegidos con mecanismos criptográficos donde quiera que se encuentren. Esta tesis doctoral se centra en el control de acceso en sistemas distribuidos, con especial atención a su aplicación en el Cloud, tratando de aportar un modelo avanzado de control de acceso basado en políticas que permita una gestión de seguridad de forma confiable y segura. Por lo tanto, en esta tesis se pretende: • Diseñar un modelo de autorización para entornos distribuidos con alta expresivi-dad siguiendo un esquema de Control de Acceso Basado en Roles (RBAC). • Proporcionar una solución de control de acceso que tenga en cuenta las particularidades del Cloud como el soporte multi-tenancy. • Estudiar la aplicación de tecnologías de Web semántica para gestión de políticas de seguridad y su capacidad de representación semántica y razonamiento. • Aportar una aproximación data-centric que permita subir datos al Cloud de manera segura y confiable, en la que los datos estén protegidos criptográfica-mente y su acceso controlado mediante políticas de autorización. Metodología Para el desarrollo de esta tesis doctoral se ha seguido una aproximación en la que se ha comenzado por proporcionar una primera propuesta del modelo de autorización en entornos distribuidos, que luego ha sido refinado, formalizado y contextualizado en entornos Cloud, y finalmente protegido criptográficamente, resultando en un modelo auto-protegido para protección de recursos en el Cloud. Así, un primer trabajo proporciona una aproximación inicial a la aplicación de tecnologías de Web semántica para gestionar políticas de seguridad en entornos distribuidos con características multi-tenancy como es la computación Grid, aportando una primera arquitectura y un primer modelo de autorización con capacidades de razonamiento avanzadas que permiten tareas de alto valor añadido tales como detección y resolución de conflictos entre políticas. En una segunda fase, se refina y formaliza el modelo de autorización, proporcionándole características de expresividad avanzadas basadas en RBAC, y se particulariza la arquitectura y el modelo para adaptarlo a las características específicas del Cloud, proporcionando también un modelo de confianza para dar soporte a posibles federaciones entre usuarios. Finalmente, se realiza una formalización matemática del modelo de autorización y se protege criptográficamente para conseguir una aproximación data-centric para que los datos queden auto-protegidos y puedan ser gestionados de manera segura y confiable por cualquier CSP sin riesgo a que se pueda acceder a ellos o cederlos a usuarios no autorizados. Cada una de estas tres fases corresponde a un trabajo de investigación completo en el que se incluye también una prueba de concepto y una serie de pruebas con resultados y estadísticas de rendimiento, con el objetivo de analizar la viabilidad de la propuesta en cada una de sus fases. Resultados Como principal resultado de esta tesis doctoral, se proporciona una propuesta de control de acceso altamente expresiva, confiable y segura, adecuada y adaptada a entornos de computación Cloud, que permite una gestión de seguridad con características de autorización avanzadas. Se define un modelo de control de acceso avanzado que permite la especificación de políticas de alto nivel, proporcionando una alta expresividad y teniendo en cuenta la heterogeneidad de los dominios del Cloud. Se proporciona también una arquitectura de seguridad y se da soporte a multi-tenancy, incluyendo capacidades federativas para situaciones en las que los usuarios deseen compartir recursos en el Cloud. El modelo de está basado en RBAC y soporta las siguientes características de expresividad: jerarquías de roles (hRBAC), condiciones de contexto (cRBAC) y jerarquías de objetos (HO). Se han aplicado tecnologías de la Web semántica, con lo que se consigue una alta expresividad de las políticas. El formalismo lógico proporcionado por las ontologías proporciona capacidades de razonamiento, posibilitando la aplicación de técnicas avanzadas para la gestión de políticas tales como la detección de conflictos semánticos, que generalmente son complejos de detectar ya que son dependientes del dominio. También se proporciona una aproximación data-centric utilizando novedosas técnicas criptográficas basadas en identidad (identity-based encryption) y re-encriptación proxy (proxy re-encryption) para proteger tanto los datos como el propio modelo de autoriza-ción. Esta propuesta proporciona una aproximación de autorización para Cloud, en la que las reglas están bajo el control del usuario, siendo la evaluación delegada al CSP de manera protegida, resultándole imposible acceder a los datos o cederlos a terceros. Durante la elaboración de esta tesis doctoral, el trabajo de investigación desarrollado se ha publicado en diversas publicaciones científicas, incluyendo artículos en revistas internacionales de los primeros cuartiles JCR, conferencias internacionales y capítulos de libro. Cabe destacar que los trabajos de investigación que componen el núcleo de esta tesis corresponden con artículos que han sido publicados o están siendo revisados en revistas internacionales con índice JCR Q1.
30

Estudio de la planificabilidad y optimización de sistemas distribuidos de tiempo real basados en prioridades fijas y EDF

Rivas Concepción, Juan María 15 July 2015 (has links)
El trabajo llevado a cabo en esta tesis se centra en realizar un estudio en profundidad de las soluciones que producen las técnicas de análisis de planificabilidad y asignación de parámetros de planificación para sistemas distribuidos, como consecuencia del cual se obtienen una serie de resultados que pueden guiar al diseñador a identificar qué algoritmo de planificación o técnica debe aplicar a su problema. También se adaptan las técnicas de análisis y optimización existentes a su aplicación a un conjunto más amplio de sistemas, que permiten la mezcla de diferentes planificadores en los recursos procesadores del sistema distribuido, y se proponen nuevas técnicas de asignación de plazos locales de planificación para EDF. / The work carried out in this thesis focuses on performing an exhaustive study of the solutions produced by both the schedulability analysis techniques, and the scheduling parameters assignment techniques, for distributed systems. The results obtained in this study can help a real-time system designer to identify the algorithm or scheduling policy to be applied. Additionally, the current analysis and optimization techniques are adapted for their application to a wider range of systems, where each processing resource could use a different scheduling policy. New techniques for the assignment of local scheduling deadlines for EDF are also proposed.

Page generated in 0.4484 seconds