• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3337
  • 2155
  • 475
  • 181
  • 181
  • 181
  • 181
  • 178
  • 178
  • 177
  • 177
  • 7
  • 4
  • 3
  • 3
  • Tagged with
  • 6000
  • 3292
  • 3242
  • 3225
  • 3157
  • 3113
  • 3106
  • 3105
  • 3099
  • 3086
  • 3083
  • 798
  • 490
  • 460
  • 416
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Metodología para la cración de modelos computacionales de comportamiento humano aplicados a la validación de entornos inteligentes

Campuzano Adán, Francisco José 13 July 2015 (has links)
Tesis por compendio de publicaciones / Los entornos inteligentes son espacios físicos, en los cuales las tecnologías de la información y las comunicaciones se encuentran plenamente integradas. El objetivo de dichas tecnologías es el de mejorar la calidad de vida del usuario que habita el entorno, ya sea su domicilio, lugar de trabajo o incluso espacios públicos. Gracias a los últimos avances tecnológicos en hardware, este soporte al usuario se realiza de forma no intrusiva. Existen dispositivos de todo tipo capaces de obtener información de contexto del entorno en el que se encuentran y de los usuarios de dicho entorno. Esta información puede ser utilizada por servicios o aplicaciones software a los que se les denomina inteligentes, por ser capaces de aprender acerca del comportamiento del usuario y de ofrecerle servicios adaptados a cada situación. El auge de estos entornos en la sociedad actual ha provocado la proliferación de métodos para un desarrollo robusto de sus componentes software. La etapa de validación resulta imprescindible en todo proceso de calidad y su objetivo es comprobar que el software en cuestión cumple determinados requisitos para los que fue creado. El método más utilizado para validar software de entornos inteligentes son los laboratorios de pruebas, o living labs, que consisten en emular de forma física el entorno y los usuarios que van a interactuar con el sistema durante su despliegue final. De forma previa al living lab, o de forma alternativa si no es posible desplegar el laboratorio (por motivos económicos, situaciones de riesgo, elevada cantidad de usuarios, etcétera), se propone el uso de plataformas de simulación. Mediante estas plataformas se pueden simular tanto los dispositivos hardware del entorno inteligente, como los comportamientos de los usuarios que utilizan el sistema. Esta tesis propone una metodología para crear y validar modelos computacionales de comportamiento humano orientados a la validación software de entornos inteligentes en plataformas de simulación. CHROMUBE es una metodología iterativa que permite, a través de una serie de pasos, la creación, simulación y validación de modelos con el nivel de detalle adecuado como para validar las aplicaciones y servicios para los que sean requeridos. Este nivel de detalle se puede obtener a partir de diversas fuentes de datos. Se proponen ramas alternativas para crear los modelos tanto a partir de datos de sensores como a partir de entrevistas con expertos. Con este fin, CHROMUBE aplica técnicas de varias disciplinas científicas, como Cronobiología, Aprendizaje Computacional e Ingeniería del Conocimiento. Así, la principal contribución científica de esta tesis consiste en la definición de una metodología para la creación y validación de modelos de usuario, aplicable a cualquier situación donde se requiera validar aplicaciones o servicios inteligentes mediante simulación. También se ha obtenido como resultado una plataforma de simulación que permite la integración de elementos reales con elementos simulados, y cuyo fin es utilizar los modelos de usuario simulados de CHROMUBE para validar software real en un entorno que emule al entorno inteligente real donde se pretende desplegar el software. En el ámbito práctico, gracias a la aplicación de CHROMUBE en la plataforma de simulación, se han reducido los tiempos y costes de implantación de diversos entornos inteligentes donde la creación de living labs no era viable, como geriátricos y hospitales. También, en otros escenarios la simulación ha sido útil para la detección de fallos del sistema previa a la etapa de living lab, y para simular nuevas condiciones de trabajo o funcionalidades del sistema imposibles de reproducir en el entorno real. La posibilidad de observación directa y análisis forenses de los resultados de dichas simulaciones también ha proporcionado a las empresas un valioso sistema de apoyo a la decisión. / Intelligent environments are physical spaces where information and communication technology (ICT) becomes embebbed into the spaces in which we live and work, even in public spaces. The main objective of these environments is supporting people in their daily lives. The enormous advances in hardware allow this support to be non-intrusive. There are all kind of smart devices able to obtain context-aware information from users and environment. This information can be processed by intelligent software and applications to learn about users' habits and to enhance their daily experiences by Ambient Intelligence (AmI) services. Nowadays, the emergence of intelligent environments has caused the proliferation of different validation methods of their software components. Validation is a software life cycle stage that provides evidence that the software satisfies specified requirements. A typical approach to validate intelligent software is the use of living labs. These labs emulate the final environment where the system is going to be deployed, including users. The use of simulation platforms is proposed here during the earlier stages of the living lab, or as an alternative if the living lab creation is unfeasible, e.g. due to its high cost. Simulation platforms allow simulating both the hardware devices of the intelligent environment and the users' behaviours. This PhD thesis proposes a methodology to create and validate Computational Models of Human Behaviour (CMHB). These models can be used in simulation platforms in order to validate AmI software systems. The proposed methodology, Chronobiological Modelling of Human Behaviours (CHROMUBE), is an iterative methodology that provides methodological processes for the creation, simulation and validation of CMHB. The complexity of these models is given by the complexity of the services or applications they are intended to validate. This information can be obtained from different sources. CHROMUBE proposes two main data sources: 1) sensor devices and 2) interviews with experts. The behaviour data obtained from these sources is conveniently analysed using different scientific disciplines, such as Chronobiology, Machine Learning and Knowledge Engineering. Thus, the main contribution of this thesis is the definition of a methodology, which is applicable to any situation where software validation by simulation requires the use of realistic computational models of human beings, such as AmI systems and intelligent environments. Another significant contribution is the implementation of a simulation platform that enables the integration of real and simulated elements. In this manner, it is possible to integrate the software under test (SUT) into a simulated environment that emulates the final scenario where the software is going to be deployed. The application of CHROMUBE within the simulation platform has helped to reduce deploying times of a number of complex intelligent environments. In some of them, the deployment of a living lab was unfeasible, e.g. in an operating theater. In other cases, simulations were useful to detect system failures in the earlier stages of the deployment, which supposed a considerable cost saving. The resulting CMHBs have been also employed by various companies to validate new working situations or system functionalities which are impossible to test exhaustively in the final environment. The possibility of forensic analysis during the simulations has also provided them a valuable decision support system.
302

Analyis and design of reset control systems = Análisis y diseño de sistemas de control reseteados

Davó Navarro, Miguel Ángel 06 October 2015 (has links)
Esta tesis se enmarca principalmente en el área de los sistemas de control reseteados, los cuales surgen hacen 60 años con el claro objetivo de superar las limitaciones fundamentales de los compensadores lineales. En los últimos años una multitud de trabajos han mostrado los potenciales beneficios de la compensación mediante acciones de reset. Sin embargo, solo unos pocos trabajos abordan dos de las limitaciones mas comunes en las aplicaciones de control de procesos como es el retardo y la saturación. Es bien conocido que dichas limitaciones pueden producir el deterioro del rendimiento, pudiendo llegar a la inestabilidad el sistema de control. Por lo tanto, el objetivo principal de la tesis es el estudio de la estabilidad de los sistemas control reseteados en presencia de dichas limitaciones. En primer lugar se ha llevado a cabo un análisis de la estabilidad de los sistemas de control reseteados con retardo. Para ello se han desarrollado criterios de estabilidad para sistemas impulsivos con retardo, basados en el método de Lyapunov-Krasovskii. Por una parte se consideran sistemas impulsivos con ley de reset dependiente del estado. La aplicación de los criterios de estabilidad obtenidos a los sistemas de control reseteados con retardo suponen una clara mejora con respecto a los resultados previos, garantizando la estabilidad del sistema para retardos mas grandes. Por otro lado, con el objetivo de superar las limitaciones del sistema base, se contempla la estabilización de sistemas impulsivos mediante condiciones temporales en los intervalos de reset. Como resultado se obtienen criterios de estabilidad para sistemas impulsivos con retardo, y en particular sistemas de control reseteados, cuyo sistema base es inestable. Finalmente, el nuevo criterio es utilizado para establecer condiciones de estabilidad en sistemas de control reseteados compuestos por un compensador proporcional-integral mas un integrador de Clegg (PI+CI). Por otra parte, se realiza un análisis de la estabilidad de los sistemas de control reseteados en presencia de saturación a la entrada de la planta. En particular, se desarrolla un método para la obtención de una aproximación de la región de atracción, basado en una representación del comportamiento del sistema de control mediante politopos y grafos dirigidos. La principal ventaja del método propuesto es que la aproximación obtenida puede ser no-convexa e infinita. Por lo tanto, como se ilustra en varios ejemplos, la estimación de la región de atracción es considerablemente mayor que la estimación obtenida con los resultados previos. Desde el punto de vista practico, se considera la utilización del compensador PI+CI. Para este compensador se estudian las diferentes mejoras de diseño propuestas en la literatura, y se proponen nuevas modificaciones con el objetivo de mejorar el rendimiento del sistema de control en aplicaciones reales. Por otra parte, se desarrolla un método sistemático para el diseño del compensador PI+CI, basado en el análisis y optimización de la respuesta impulsional de un conjunto de sistemas lineales e invariantes en el tiempo. Como resultado se obtiene un conjunto de reglas de sintonización sencillas y aplicables a procesos modelados como sistemas de primer y segundo orden, e integradores con retardo. Finalmente, los beneficios del compensador PI+CI y del método de ajuste propuesto son comprobados sobre sistemas reales de control de procesos. En primer lugar, se realiza el control de un proceso de pH en linea, mostrando que las reglas de sintonía para procesos de primer y segundo orden pueden ser aplicadas a procesos mas complejos. En segundo lugar, se lleva a cabo el control de nivel de un tanque de agua. En ambos procesos, la utilización del compensador PI+CI conlleva una mejora del rendimiento en comparación a su homologo lineal PI. En particular, se obtiene una respuesta mas rápida con menor sobreimpulso y tiempo de establecimiento. / Analysis and Design of Reset control Systems This thesis is focused on the field of reset control, which emerged more than 50 years ago with the main goal of overcoming the fundamental limitations of the linear compensators. In the last years, a multitude of works have shown the potential benefits of the reset compensation. Nevertheless, there are only a few works dealing with two of the most common limitations in industrial process control: the time-delay and the saturation. It is well-known that both limitations may lead into a detriment of the performance, and even the destabilization of the closed-loop system. Therefore, this thesis aim at analyzing the stability of the reset control systems under these limitations. First, in order to provide a solid mathematical foundation, the reset control systems are described by the framework of impulsive dynamical systems, then we have developed stability criteria for impulsive delay dynamical systems, based on the Lyapunov-Krasovskii method. The applicability of the results to time-delay reset control systems arises naturally, since they are a particular class of impulsive systems. We first focus our attention on impulsive delay systems with state-dependent resetting law. The application of the criteria to reset control systems supposes an improvement of the results in the literature, guaranteeing the stability of the systems for larger values of the time-delay. In addition, in order to overcome the limitations of the base system, we consider the stabilization of impulsive delay systems by imposing time-dependent conditions on the reset intervals. As a result, stability criterion is developed for impulsive systems, and in particular time-delay reset control systems, with unstable base system. Finally, the new criterion is used to establish conditions for the stability of a reset control system containing a proportional-integral plus Clegg integrator (PI+CI) compensator. On the other hand, we study the stability of the reset control systems in presence of plant input saturation. In particular, we propose a method to obtain an approximation of the region of attraction based on a representation of the behavior of the reset control system by polytopes and directed graphs. The main advantage of the proposed procedure is that the approximation of the region of attraction is not necessarily neither convex nor finite. Therefore, as it is illustrated by several examples, the provided region of attraction estimate is considerably greater than the estimation obtained by the previous results. From the application point of view, it is considered the PI+CI compensator. We study several modifications of the compensator which are proposed in the literature, for instance variable band resetting law and variable reset ratio. In addition, we propound new design improvements such as switching reset ratio, in order to enhance the performance in real applications. On the other hand, it is developed a systematic method for PI+CI tuning, based on the analysis and optimization of the impulse response of a set of linear and time invariant systems. Therefore, simple tuning rules have been developed for processes modeled by first and second order systems, and integrator plus dead time systems. Finally, the superior performance of the PI+CI compensator with the proposed tuning method is shown in real experiments of process control. First, the control of an in-line pH process is performed, showing that the tuning rules for first and second order systems can be applied to more complex processes. Second, we accomplish the control of water level in a tank. In both cases, the PI+CI supposes an improvement of the performance in comparison to its linear counterpart PI. In particular, the reset compensation provides a faster response with smaller overshoot and settling time.
303

Actores sintéticos en tiempo real: Nuevas estructuras de datos y métodos para su integración en aplicaciones de simulación.

Rodríguez García, Rafael 23 July 2004 (has links)
La forma más extendida de implementar una aplicación de simulación es mediante la utilización de un grafo de escena. Este tipo de estructura resulta muy adecuado para definir escenas estáticas, pero presenta serias carencias a la hora de representar estructuras articuladas, u objetos con comportamientos complejos. Ambas circunstancias se dan en el caso de los actores virtuales.Este trabajo define nuevas estructuras de datos y métodos que permiten integrar de una forma adecuada actores virtuales en una aplicación de simulación:1-Se presentan dos nuevos tipos de nodos (Actor y Skeleton), que actúan como elemento modular para la definición y gestión de cualquier tipo de actor virtual. En el diseño de estos nodos se ha prestado especial atención a la estandarización, y la eficiencia computacional. 2-Se proponen técnicas que permiten solventar algunas carencias de los grafos de escena actuales a la hora de ser empleados con actores virtuales. Se actúa sobre el cuello de botella existente en relación con aplicación de matrices de transformación. Se define un nuevo método de gestión de culling específico para actores, es compatible con el tradicional, y actúa sobre los costes asociados a la gestión del comportamiento. Se define un método de gestión de nivel de detalle específico, que actúa simultáneamente sobre la geometría, la topología y el comportamiento, y se realiza un análisis sobre la forma en que los actores han de ser integrados en un sistema multiprocesador3-Se describe una estructura de nombre "ActorClass", que es independiente del grafo de escena y que se encarga de almacenar todas las informaciones de alto nivel que son compartidas por varios actores de la misma "especie". Esta estructura es capaz de absorber futuras ampliaciones y permite realizar simulaciones macroscópicas.Con el objeto de demostrar la utilidad práctica de los resultados de este trabajo, se ha implementado una librería de programación y una arquitectura modular que actúan sobre la base de las estructuras y métodos descritos, y se ha desarrollado un ejemplo de su utilización que muestra en detalle todos los aspectos de la integración de actores virtuales en una aplicación de simulación ya existente. / The "Scene Graph" is the most widespread method of implementation simulation applications. This kind of structure is a very convenient way to define static scenes, but it has serious drawbacks in representing articulated structures or objects with complex behaviours. Both circumstances are inherent in virtual actors.This thesis defines new data structures and methods permiting the adequate integratión of virtual actors in a simulatión application:1. Two new kinds of nodes are presented (Actor and Skeleton). These nodes function as modular elements to define and manage all kinds of virtual actor. During the dessing process of this nodes a great attention was paid to standarization and computational efficience.2. Special techniques are presented in order to solve problems in the current scene graphs: Working on the bottleneck that exists in relation to the transformation matrix process; Defining a new method of culling, specific to actors, that is compatible with the traditional, and considers the costs associated with the behaviour management; Defining a specific "Level of Detail" method, that works simultaneously with the geometry, the topology and the behaviour; Making an analisis of the technique to ingrate actors in a multiprocessor system.3. A new structure, named "ActorClass", is defined. This structure is independent of the scene graph and is responsible for storing all the high level information that is shared by several actors of the same "species". This structure has the capability of assimilating future expansions, and supporting the definition of macroscopic simulations.In order to show the practical utility of the results of this work, a programming library and a modular architecture have been implemented on the basis of these proposed structures and methods. In addition, a practical sample sample has been developed, showing in detail all the aspects of the integratión of virtual actors in an existing simulation application.
304

n veces a través del espejo

Pertino, Cecilia January 1995 (has links)
No description available.
305

Proporcionando acceso federado y SSO a servicios de internet mediante kerberos e infraestructuras AAA = Providing federated access and SSO to internet services by means of kerberos and AAA infrastructures

Pérez Méndez, Alejandro 23 January 2015 (has links)
A día de hoy las federaciones de identidad para servicios web y para el acceso a la red están bastante asentadas y aceptadas. Pero, ¿qué ocurre con otros tipos de servicio que no soportan estas tecnologías? El objetivo de esta tesis es diseñar soluciones que permitan el establecimiento de federaciones de identidad más allá del Web, evitando los problemas que presentan las soluciones disponibles en el estado del arte. Para ello se han analizado y seleccionado un conjunto de tecnologías asociadas al control de acceso que, una vez integradas, proporcionan la funcionalidad completa deseada: • Kerberos, para realizar el control de acceso a los servicios de aplicación, dadas las grandes cualidades que presenta (seguro, ligero, SSO, etc.), su amplio despliegue y su gran rango de servicios y sistemas operativos soportados. • Infraestructuras AAA, para el soporte de federación, por su amplio uso para proporcionar acceso federado a la red (p.ej. eduroam). • SAML, para el soporte de autorización, por su gran historial de éxito y amplio despliegue en federaciones basadas en Web. Por tanto, el objetivo general de esta tesis puede expresarse como: Analizar, diseñar y validar soluciones que permitan a los usuarios obtener credenciales Kerberos para un proveedor de servicios específico, como resultado de un proceso de autenticación realizado a través de una federación AAA y de un proceso de autorización basado en el intercambio de sentencias SAML con la organización origen. Este objetivo se ha abordado de tres formas diferentes, dependiendo del escenario de uso, dando lugar a tres sub-objetivos más específicos: 1. Diseñar una solución que permita la generación de credenciales Kerberos mediante la integración directa de las infraestructuras Kerberos y AAA en el proveedor de servicios. 2. Diseñar una solución que permita la generación de credenciales Kerberos mediante el uso de un protocolo auxiliar (out-of-band) que haga uso de la infraestructura AAA para autenticar al usuario. 3. Diseñar una solución que permita la generación de credenciales Kerberos como consecuencia del proceso de autenticación federada en la red. Además, se definen los siguientes sub-objetivos transversales: 4. Diseñar un modelo de autorización que permita la distribución de información de autorización a través de la infraestructura AAA. 5. Validar las soluciones diseñadas mediante modelos analíticos e implementación de prototipos. A fin de cumplir con estos objetivos, esta tesis define tres soluciones al problema planteado: • FedKERB integra las infraestructuras Kerberos y AAA mediante la definición un nuevo mecanismo de pre-autenticación para Kerberos basado en tecnologías como GSS-API y EAP (objetivo 1). Además, incluye la posibilidad de realizar una autorización avanzada mediante la generación y el transporte de una sentencia SAML desde el IdP de la organización origen hasta la infraestructura Kerberos del proveedor de servicios (objetivo 4). • PanaKERB define una alternativa a FedKERB que no requiere la modificación del mecanismo de pre-autenticación de Kerberos, sino que utiliza un protocolo out-of-band con soporte nativo para infraestructuras AAA (en este caso PANA) para realizar la autenticación federada del usuario (objetivo 2). • EduKERB proporciona una arquitectura cross-layer que integra Kerberos con la autenticación realizada durante el acceso a la red (basada en AAA), mediante la utilización de un nuevo mecanismo de pre-autenticación para Kerberos que utiliza el resultado de una ejecución EAP exitosa previa (objetivo 3). Además, esta tesis proporciona un análisis funcional y de rendimiento de las contribuciones (objetivo 5), consistente en la definición de un modelo teórico de rendimiento, la implementación de prototipos para demostrar su viabilidad y la medición de su rendimiento real, basado en la ejecución de estos prototipos. De este análisis se han extraído dos conclusiones principales. En primer lugar, las tres propuestas presentan tiempos de ejecución aceptables (es decir, similares a los que se dan durante el acceso a la red, que sirve como referencia). Además, al haberse implementado y ejecutado en un entorno real, su viabilidad real queda demostrada. / Nowadays identity federations for web applications and for the network access service are widely used and accepted. But, what happens with other kind of applications that do not support these technologies? The objective of this thesis is designing solutions to allow establishing identity federations beyond the web, avoiding the issues shown by the state of the art alternatives. For doing that, this thesis has analyzed and selected a set of technologies associated to access control. These technologies, once integrated, provide the totality of the desired functionality. • Kerberos, to perform the access control to application services, given the great features it has (secure, lightweight, SSO, etc.), its wide deployment, and its extensive range of supported applications and operating systems. • AAA infrastructures, to provide federation substrate, given their wide usage to provide federated access to the network service (e.g. eduroam). • SAML, to provide support for authorization, due to its great history of success and wide deployment for web-based federations. Hence, the general objective of this PhD thesis can be expressed as: To analyse, design, and validate solutions that enable end users to bootstrap Kerberos credentials for a specific service provider, as the result of an authentication process conducted through the AAA-based federation, and an authorization process based on the exchange of SAML statements with the home organization. This objective has been approached in the different ways, depending on the target scenario, and resulting into three more specific sub-objectives: 1. To design a solution allowing the bootstrapping of Kerberos credentials by means of the integration of the Kerberos and AAA infrastructures in the service provider. 2. To design a solution enabling the bootstrapping of Kerberos credentials by means of an auxiliary protocol (out-of-band) which makes use of the AAA infrastructure to authenticate the end user. 3. To design a solution enabling the bootstrapping of Kerberos credentials as a result of the federated authentication to the network service. Besides, the following transversal sub-objectives are defined: 1. To design an authorization model enabling the distribution of authorization information through the AAA infrastructure. 1. To validate the designed solutions by means of analytical models and prototype implementations. In order to accomplish with these objectives, this PhD thesis defines three solutions to the problem stated problem: • FedKERB integrates the Kerberos and AAA infrastructures by means of the definition of a new pre-authentication mechanism for Kerberos based on GSS-API and EAP (objective 1). Besides, it includes the possibility of performing advanced authorization based on the generation and transport of a SAML assertion from the IdP in the home organization to the Kerberos infrastructure in the service provide (objective 4). • PanaKERB defines an alternative to FedKERB that does not require the modification of the Kerberos pre-authentication mechanism. Instead, it makes use of an out-of-band protocol with native support for AAA infrastructures (i.e. PANA) to perform the federated authentication of the end user (objective 2). • EduKERB provides a cross-layer architecture integrating Kerberos with the authentication process performed during the network access process (based on AAA), by means of a new pre-authentication mechanism that makes use of the results of a successful previous EAP authentication (objective 3). Besides, this PhD thesis provides a functional and performance analysis of the aforementioned contributions (objective 5), consisting of the definition of a theoretical performance model, the implementation of prototypes to demonstrate their feasibility, and the actual performance measurement based on these prototypes. To major conclusions have been extracted from the results of this analysis. On the one hand, the three contributions have shown reasonable execution times (i.e. similar to the ones shown for the network access service, used as a reference). Besides, since they have been implemented and executed in a real environment, they feasibility has been proven.
306

Contribuciones a la eficiencia en el encaminamiento y la recogida de información en las redes vehiculares =Contributions to the efficiency in routing and information harvesting for vehicular networks

Martínez Navarro, Juan Antonio 27 March 2015 (has links)
El gran número de accidentes causados en nuestras carreteras es una de las grandes preocupaciones que tienen nuestras as autoridades públicas de tráfico. Una de las tecnologías emergentes que puede asistir en la conducción y que puede ayudar por tanto a reducir dichos accidentes es el de las redes vehiculares (VANETs). Éstas consisten básicamente en equipar a los vehículos con dispositivos de red inalámbricos que les permite comunicarse entre ellos tan pronto entran dentro del rango de alcance. En este sentido, el objetivo de esta tesis es el de proporcionar un avance en el estado del arte en el contexto de las VANETs. Concretamente: En el encaminamiento: Analizar y comprender las limitaciones en el encaminamiento en las VANETs. Diseñar un protocolo de encaminamiento mejorado. Implantar y evaluar el rendimiento de los protocolos de encaminamiento. En la seguridad: Estudiar y analizar las diferentes amenazas y ataques presentes en las VANETs. Analizar las vulnerabilidades de los protocolos de encaminamiento respecto a estos ataques. Desarrollar un mecanismo para reforzar el encaminamiento en entornos hostiles. Estudiar los diferentes mecanismos de autenticación para el acceso a la infraestructura. Analizar las principales desventajas del proceso de autenticación y proporcionar una solución para hacer más liviano el proceso de autenticación. Por último, en el contexto de la recogida de información: Analizar los protocolos de recogida de información actuales. Diseñar un protocolo mejorado que reduzca el número y tamaño de los mensajes transmitidos comprimiendo su contenido. Para ello se ha empleado la siguiente metodología: 1. Analizar el estado del arte de las tecnologías involucradas adquiriendo una definición precisa del problema a resolver. 2. Averiguar los fallos de diseño y desventajas de la tecnología existente. 3. Definir una nueva propuesta mejorada. 4. Por último se evalúa esta propuesta comparándola con las soluciones existentes en la literatura para asegurar su buen comportamiento y obtener de este modo el beneficio obtenido por el uso de esta nueva solución. La información obtenida en cada uno estos pasos puede retroalimentar la información obtenida haciéndonos volver a pasos anteriores y ayudándonos a encontrar una solución mejor. A continuación enumeramos los principales resultados obtenidos en el desarrollo de esta tesis. / Beacon-less Routing Algorithm for Vehicular Environments (BRAVE). Protocolo de encaminamiento escalable y confiable que utiliza un esquema oportunista para seleccionar el siguiente nodo intermedio a reenviar un mensaje hacia un destino. La evaluación de dicho protocolo mediante simulaciones ha arrojado un incremento en la tasa de envío de paquetes obteniendo casi un 90% incluso en escenarios dispersos.S-BRAVE. Una propuesta para securizar el anterior protocolo y reforzar la tasa de envío de paquetes en entornos hostiles con nodos maliciosos. Entre otras aportaciones cabe destacar el uso de un mecanismo de intercambio de certificados así como el uso de los nodos de guarda para vigilar la correcta transmisión de los paquetes a lo largo de la red. Hemos evaluado el rendimiento de esta propuesta y hemos obtenido un incremento en la tasa de envío de paquetes llegando a obtener hasta un 80%.HYB-BRAVE. Hemos extendido BRAVE para poder aprovechar las ventajas de la conexión a una red de infraestructura. Gracias a los diferentes elementos de conexión a dicha red hemos podido enriquecer el mecanismo de la toma de decisiones de encaminamiento. Reduciendo drásticamente el retardo en las transmisiones de paquetes. Una propuesta eficiente para el control de acceso en VANET conectadas a la infraestructura. El protocolo propuesto se centra en reducir el tiempo que se tarda en obtener una autenticación exitosa por parte de un vehículo cuando accede a un servicio de Internet. Para ello proponemos el uso de un esquema de pre-autenticación cuyo beneficio ha sido probado gracias a las simulaciones realizadas obteniendo una mejora de mas de un 50% con respecto a un esquema de autenticación tradicional.Compressed Sensing based Vehicular Data Harvesting (CS-VDH). Un protocolo de recogida de información en Redes de sensores vehiculares (VSNs). Este protocolo utiliza una técnica de compresión que prácticamente no incrementa el tamaño del mensaje enviado a pesar de añadir nueva información y que es capaz de obtener una reconstrucción muy precisa de los valores originales como se ha podido verificar en las simulaciones realizadas. Contributions to the Efficiency in Routing and Information Harvesting for Vehicular Networks The high number accidents happened in our roads is one of the greatest concerns that has our public traffic authorities. One of the emergent technologies that can assists drivers, and therefore can help in the decrease of such accidents is that of Vehicular Ad-hoc Networks (VANETs). They roughly consists of a series of vehicles equipped with wireless network interfaces which allow them to communicate with each other as they enter inside their radio range. In this sense, the objective of this thesis is that of providing advance to the state of the art in the VANETs context. Concretely: Regarding routing in VANET we aim at: Analysing and comprehending the limitations of routing in VANETs. Designing an improved routing protocol. 
Implanting and evaluating the performance of routing protocols. Regarding the security issue: Study and analyse the different security threats and attacks presents in VANETs. Analyse the vulnerabilities that routing protocols have against these attacks. Develop a mechanism to strengthen routing when malicious users are present. Study the different authentication mechanisms used when nodes access to the infrastructure network or to certain services. Analyse the main drawbacks of this process and provide a solution which alleviate them. Finally, regarding the gathering protocols: Analysing the current gathering protocols. Designing an improved routing protocol able to reduce the amount of transmitted messages as well as their size by compressing the carried information. To do so, we have employed the following methodology: 1. Analyse the state of the art of the involved technologies acquiring a precise definition of the problem to be addressed. 2. Obtaining the main drawbacks and flaws of the existing technology. 3. Define a new improvement proposal. 4. Finally, the new proposal is evaluated comparing it with existing solutions in the literature to validate it and measure the obtained benefit. The information obtained in each of these steps can also provide feedback making us to go back to previous steps helping us to tune the proposed solution. Next we enumerate the main results obtained in the development of this thesis.Beacon-less Routing Algorithm for Vehicular Environments (BRAVE). Very reliable and scalable routing protocol that uses an opportunistic approach to forward packets using intermediate nodes. By means of a simulation-based study, our approach shows up to 90% of high packet delivery ratio even in sparse scenarios.S-BRAVE. A routing proposal aimed at securing and reinforcing the packet delivery ratio under hostile scenarios with malicious nodes. Among the contributions it is worth highlighting the use of a certificate Exchange mechanism as well as the use of guard nodes to watch the correct forwarding of the messages along the network. We evaluated the performance of this proposal by means of simulations and this technique increases the packet delivery ratio up to 80% in presence of attackers or malicious users.HYB-BRAVE. We extended BRAVE so as to take advantage of the connection to an infrastructure network. Our proposal takes advantage of RSUs and APs deployed as well as other wireless interfaces to enrich the routing decision strategy. Our simulations proved the advantage of a hybrid network by increasing the delivery ratio and drastically decreasing the average delay per packet.A protocol to make the authentication process more agile against gateways. It uses a mechanism called pre-authentication by which a node already authenticated with a gateway uses it to start a new authentication process. The difference with the traditional scheme is that now the node uses the current gateway to start the authentication with the new one. This way, when a node changes from its current gateway to the new one, it will not waste its time in the authentication process making the most of it to communicate with the infrastructure network.Compressed Sensing based Vehicular Data Harvesting (CS-VDH). A harvesting protocol used in VSNs. This protocol uses an emergent compression technique developed in the field of the Theory of Information called Compressed Sensing (CS) whose main advantage is the possibil- ity to compress information adding new elements to it without hardly increase the size of the compressed information and also permitting an accurate reconstruction of the information. Our simulations prove this benefit reducing the control overhead in up to 2000 messages, providing also a compression of even 4.5 elements to 1 with an accurate reconstruction of the information.
307

Contribuciones a la eficiencia en el encaminamiento y la recogida de información en las redes vehiculares =Contributions to the efficiency in routing and information harvesting for vehicular networks

Martínez Navarro, Juan Antonio 27 March 2015 (has links)
El gran número de accidentes causados en nuestras carreteras es una de las grandes preocupaciones que tienen nuestras as autoridades públicas de tráfico. Una de las tecnologías emergentes que puede asistir en la conducción y que puede ayudar por tanto a reducir dichos accidentes es el de las redes vehiculares (VANETs). Éstas consisten básicamente en equipar a los vehículos con dispositivos de red inalámbricos que les permite comunicarse entre ellos tan pronto entran dentro del rango de alcance. En este sentido, el objetivo de esta tesis es el de proporcionar un avance en el estado del arte en el contexto de las VANETs. Concretamente: En el encaminamiento: Analizar y comprender las limitaciones en el encaminamiento en las VANETs. Diseñar un protocolo de encaminamiento mejorado. Implantar y evaluar el rendimiento de los protocolos de encaminamiento. En la seguridad: Estudiar y analizar las diferentes amenazas y ataques presentes en las VANETs. Analizar las vulnerabilidades de los protocolos de encaminamiento respecto a estos ataques. Desarrollar un mecanismo para reforzar el encaminamiento en entornos hostiles. Estudiar los diferentes mecanismos de autenticación para el acceso a la infraestructura. Analizar las principales desventajas del proceso de autenticación y proporcionar una solución para hacer más liviano el proceso de autenticación. Por último, en el contexto de la recogida de información: Analizar los protocolos de recogida de información actuales. Diseñar un protocolo mejorado que reduzca el número y tamaño de los mensajes transmitidos comprimiendo su contenido. Para ello se ha empleado la siguiente metodología: 1. Analizar el estado del arte de las tecnologías involucradas adquiriendo una definición precisa del problema a resolver. 2. Averiguar los fallos de diseño y desventajas de la tecnología existente. 3. Definir una nueva propuesta mejorada. 4. Por último se evalúa esta propuesta comparándola con las soluciones existentes en la literatura para asegurar su buen comportamiento y obtener de este modo el beneficio obtenido por el uso de esta nueva solución. La información obtenida en cada uno estos pasos puede retroalimentar la información obtenida haciéndonos volver a pasos anteriores y ayudándonos a encontrar una solución mejor. A continuación enumeramos los principales resultados obtenidos en el desarrollo de esta tesis.Beacon-less Routing Algorithm for Vehicular Environments (BRAVE). Protocolo de encaminamiento escalable y confiable que utiliza un esquema oportunista para seleccionar el siguiente nodo intermedio a reenviar un mensaje hacia un destino. La evaluación de dicho protocolo mediante simulaciones ha arrojado un incremento en la tasa de envío de paquetes obteniendo casi un 90% incluso en escenarios dispersos.S-BRAVE. Una propuesta para securizar el anterior protocolo y reforzar la tasa de envío de paquetes en entornos hostiles con nodos maliciosos. Entre otras aportaciones cabe destacar el uso de un mecanismo de intercambio de certificados así como el uso de los nodos de guarda para vigilar la correcta transmisión de los paquetes a lo largo de la red. Hemos evaluado el rendimiento de esta propuesta y hemos obtenido un incremento en la tasa de envío de paquetes llegando a obtener hasta un 80%.  HYB-BRAVE. Hemos extendido BRAVE para poder aprovechar las ventajas de la conexión a una red de infraestructura. Gracias a los diferentes elementos de conexión a dicha red hemos podido enriquecer el mecanismo de la toma de decisiones de encaminamiento. Reduciendo drásticamente el retardo en las transmisiones de paquetes.Una propuesta eficiente para el control de acceso en VANET conectadas a la infraestructura. El protocolo propuesto se centra en reducir el tiempo que se tarda en obtener una autenticación exitosa por parte de un vehículo cuando accede a un servicio de Internet. Para ello proponemos el uso de un esquema de pre-autenticación cuyo beneficio ha sido probado gracias a las simulaciones realizadas obteniendo una mejora de mas de un 50% con respecto a un esquema de autenticación tradicional. / Compressed Sensing based Vehicular Data Harvesting (CS-VDH). Un protocolo de recogida de información en Redes de sensores vehiculares (VSNs). Este protocolo utiliza una técnica de compresión que prácticamente no incrementa el tamaño del mensaje enviado a pesar de añadir nueva información y que es capaz de obtener una reconstrucción muy precisa de los valores originales como se ha podido verificar en las simulaciones realizadas. Contributions to the Efficiency in Routing and Information Harvesting for Vehicular Networks The high number accidents happened in our roads is one of the greatest concerns that has our public traffic authorities. One of the emergent technologies that can assists drivers, and therefore can help in the decrease of such accidents is that of Vehicular Ad-hoc Networks (VANETs). They roughly consists of a series of vehicles equipped with wireless network interfaces which allow them to communicate with each other as they enter inside their radio range. In this sense, the objective of this thesis is that of providing advance to the state of the art in the VANETs context. Concretely: Regarding routing in VANET we aim at: Analysing and comprehending the limitations of routing in VANETs. Designing an improved routing protocol. 
Implanting and evaluating the performance of routing protocols. Regarding the security issue: Study and analyse the different security threats and attacks presents in VANETs. Analyse the vulnerabilities that routing protocols have against these attacks. Develop a mechanism to strengthen routing when malicious users are present. Study the different authentication mechanisms used when nodes access to the infrastructure network or to certain services. Analyse the main drawbacks of this process and provide a solution which alleviate them. Finally, regarding the gathering protocols: Analysing the current gathering protocols. Designing an improved routing protocol able to reduce the amount of transmitted messages as well as their size by compressing the carried information. To do so, we have employed the following methodology: 1. Analyse the state of the art of the involved technologies acquiring a precise definition of the problem to be addressed. 2. Obtaining the main drawbacks and flaws of the existing technology. 3. Define a new improvement proposal. 4. Finally, the new proposal is evaluated comparing it with existing solutions in the literature to validate it and measure the obtained benefit. The information obtained in each of these steps can also provide feedback making us to go back to previous steps helping us to tune the proposed solution. Next we enumerate the main results obtained in the development of this thesis.Beacon-less Routing Algorithm for Vehicular Environments (BRAVE). Very reliable and scalable routing protocol that uses an opportunistic approach to forward packets using intermediate nodes. By means of a simulation-based study, our approach shows up to 90% of high packet delivery ratio even in sparse scenarios. S-BRAVE. A routing proposal aimed at securing and reinforcing the packet delivery ratio under hostile scenarios with malicious nodes. Among the contributions it is worth highlighting the use of a certificate Exchange mechanism as well as the use of guard nodes to watch the correct forwarding of the messages along the network. We evaluated the performance of this proposal by means of simulations and this technique increases the packet delivery ratio up to 80% in presence of attackers or malicious users.HYB-BRAVE. We extended BRAVE so as to take advantage of the connection to an infrastructure network. Our proposal takes advantage of RSUs and APs deployed as well as other wireless interfaces to enrich the routing decision strategy. Our simulations proved the advantage of a hybrid network by increasing the delivery ratio and drastically decreasing the average delay per packet.A protocol to make the authentication process more agile against gateways. It uses a mechanism called pre-authentication by which a node already authenticated with a gateway uses it to start a new authentication process. The difference with the traditional scheme is that now the node uses the current gateway to start the authentication with the new one. This way, when a node changes from its current gateway to the new one, it will not waste its time in the authentication process making the most of it to communicate with the infrastructure network.Compressed Sensing based Vehicular Data Harvesting (CS-VDH). A harvesting protocol used in VSNs. This protocol uses an emergent compression technique developed in the field of the Theory of Information called Compressed Sensing (CS) whose main advantage is the possibil- ity to compress information adding new elements to it without hardly increase the size of the compressed information and also permitting an accurate reconstruction of the information. Our simulations prove this benefit reducing the control overhead in up to 2000 messages, providing also a compression of even 4.5 elements to 1 with an accurate reconstruction of the information.
308

Efectos en la salud ocasionados por el uso de drogas

Silva-Santisteban, Giancarlo, Escalante, Bryan, Osso, Daniel, Chirinos, Sandro, Del Castillo, Rubén 23 November 2008 (has links)
Trabajo final del Curso Informática para las Ciencias de la Salud
309

Efectividad de los remedios caseros

Servat, Jean, Heysen, Johann, Rodríguez, Andrea, Zumaeta, Harel, Hiromoto, Thiara, Bobadilla, Abraham 23 November 2008 (has links)
Trabajo final del curso Informática para las Ciencias de la Salud
310

Metodologías basadas en minería de datos para el diseño y optimización de técnicas de clasificación automática

Martínez España, Raquel 19 December 2014 (has links)
La motivación para el desarrollo de esta tesis doctoral se centra en la problemática de la escasez de técnicas de Análisis Inteligente de Datos que trabajen de forma directa con datos imperfectos. Esto ha estado provocado debido al avance de las nuevas tecnologías las cuales han permitido el almacenamiento de grandes volúmenes de información compuestos de diferentes tipos de datos no siempre tan precisos y perfectos como sería deseable. El objetivo global, y por tanto, los objetivos parciales, se encuentran centrados en el desarrollo de técnicas del Análisis Inteligente de Datos que hagan uso de las metodologías que ofrece el Softcomputing para trabajar con datos imperfectos (datos de baja calidad) de forma directa, sin necesidad de una transformación previa. Específicamente, la tesis se centra en las fases de Preprocesamiento de Datos y de Minería de Datos del Análisis Inteligente de Datos. Por una parte, en la fase de Minería de Datos, se proponen las extensiones de tres técnicas. Concretamente, un árbol de decisión fuzzy, un ensamble de árboles de decisión fuzzy y una técnica basada en vecindad. Para la extensión del árbol de decisión fuzzy y del ensamble se ha definido una medida de similitud para calcular el grado de pertenencia de un valor de baja calidad a cada uno de los descendientes de un nodo N dado. Para la extensión de la técnica basada en vecindad (regla k-NN) se ha definido una serie de medidas distancia para calcular la distancia entre los ejemplos y sus vecinos teniendo presente que estos pueden contener datos de baja calidad. Por otra parte, en la fase de Preprocesamiento se propone el diseño e implementación de un conjunto de técnicas que soporten datos de baja calidad. Concretamente, las técnicas presentadas abarcan los procesos de discretización de atributos numéricos, la selección de atributos, la selección de ejemplos y la imputación de valores missing. En la discretización de atributos se ha diseñado una técnica híbrida compuesta por un árbol de decisión fuzzy y un algoritmo genético. La técnica de selección de atributos propuesta es un algoritmo híbrido compuesto por una técnica de filtrado y una técnica wrapper. Por otro lado la técnica de imputación se basa en el diseño de una nueva regla para la técnica de K-NN y para el proceso de selección de ejemplos se ha utilizado la idea básica de una técnica de condensación de ejemplos, con el fin de seleccionar los más representativos. Además se ha desarrollado una herramienta software que recoge parte de las técnicas de preprocesamiento de datos propuestas y desarrolladas a lo largo de la tesis. El objetivo de esta herramienta software, llamada “NIP imperfection processor” (NIPip), es proporcionar un marco de trabajo común donde los investigadores puedan llevar a cabo un preprocesamiento sobre conjuntos de datos bien para añadirles datos de baja calidad o bien para transformar dicho datos de baja calidad en otros tipos de datos. Como conclusión final debemos comentar que las técnicas propuestas y extendidas, y tras realizar un conjunto de experimentos validados estadísticamente, han mostrado un comportamiento robusto, estable, muy satisfactorio y optimista tanto cuando trabajan con datos de baja calidad como datos crisp. Además la herramienta software propuesta aporta un nuevo marco de trabajo, y una mayor flexibilidad y rapidez a la hora de preprocesar datos tanto de baja calidad como crisp, lo cual es muy importante para el diseño de experimentos a gran escala. / The motivation for the development of this doctoral thesis is focused on the problem of the shortage of techniques of Intelligent Data Analysis, working directly with imperfect data. This has been caused by the advance of new technologies which have allowed the storage of large volumes of information of different types composed of data that are not always as precise and perfect as desired. The global aims, and therefore partial objectives, are focused on the development of techniques of Intelligent Data Analysis making use of methodologies provided by Softcomputing to work directly with imperfect data (low quality), without a need for previous transformation. Specifically, the thesis is focused on the Intelligent Data Analysis phases of data preprocessing and data mining. On the one hand, in the phase of data mining, the extensions of three techniques have been proposed. Specifically, a fuzzy decision tree, an ensemble of fuzzy decision trees and a technique based on neighborhood. For the extension of the fuzzy decision tree and the ensemble techniques a similarity measure has been defined. This measure is used to calculate the membership degree of a low quality value to each of the descendants of a given node N. For the extension of the technique based on neighborhood (k-NN rule) a set of distance measures to calculate the distance between the examples and their neighbors has been defined, bearing in mind that the examples may contain low quality data. On the other hand, the design and implementation of a set of techniques, that support low quality data, is proposed in the preprocessing phase. In particular, the techniques presented include the processes of discretization of numerical attributes, of attribute selection, of example selection and of missing value imputation. In the discretization of attributes, a hybrid technique has been designed. This technique is composed of a fuzzy decision tree and a genetic algorithm. The attribute selection technique proposed consists of a hybrid algorithm composed of a filtering technique and a wrapper technique. In addition, the imputation technique is based on the design of a new rule for the technique K-NN. For the process of example selection, the basic idea of a condensation technique of examples has been used, in order to select the most representative examples. Also, a software tool has been developed. This tool includes part of the data preprocessing techniques proposed and developed in this doctoral thesis. The aim of this software tool, called "NIP imperfection processor" (NIPip) is to provide a common framework where researchers can perform preprocessing on datasets either to add low quality data to them or to transform this low quality data into other types of data. As a final conclusion, it must be emphasized that the proposed and extended techniques, after performing a set of statistically validated experiments, have shown robust, stable, very satisfactory and optimistic behavior both when working with low quality data and when working with crisp data. Also, the software tool proposed provides a new framework, and greater flexibility and speed in the data preprocessing both low quality and crisp, which is very important for the design of large-scale experiments.

Page generated in 0.0352 seconds