• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 14
  • Tagged with
  • 87
  • 87
  • 87
  • 83
  • 16
  • 14
  • 13
  • 12
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Selective Software-Implemented Hardware Fault Tolerance Techniques to Detect Soft Errors in Processors with Reduced Overhead

Chielle, Eduardo 30 July 2016 (has links)
Software-based fault tolerance techniques are a low-cost way to protect processors against soft errors. However, they introduce significant overheads to the execution time and code size, which consequently increases the energy consumption. System operating with time or energy restrictions may not be able to use these techniques. For this reason, this work proposes new software-based fault tolerance techniques with lower overheads and similar fault coverage to state-of-the-art software techniques. Thus, they can meet the system constraints. In addition, the shorter execution time reduces the exposure time to radiation. Consequently, the reliability is higher for the same fault coverage. Techniques can work with error correction or error detection. Once detection is less costly than correction, this work focuses on software-based detection techniques. Firstly, a set of data-flow techniques called VAR is proposed. The techniques are based on general building rules to allow an exhaustive assessment, in terms of reliability and overheads, of different technique variations. The rules define how the technique duplicates the code and insert checkers. Each technique uses a different set of rules. Then, a control-flow technique called SETA (Software-only Error-detection Technique using Assertions) is introduced. Comparing SETA with a state-of-the-art technique, SETA is 11.0% faster and occupies 10.3% fewer memory positions. The most promising data-flow techniques are combined with the control-flow technique in order to protect both dataflow and control-flow of the target application. To go even further with the reduction of the overheads, methods to selective apply the proposed software techniques have been developed. For the data-flow techniques, instead of protecting all registers, only a set of selected registers is protected. The set is selected based on a metric that analyzes the code and rank the registers by their criticality. For the control-flow technique, two approaches are taken: (1) removing checkers from basic blocks: all the basic blocks are protected by SETA, but only selected basic blocks have checkers inserted, and (2) selectively protecting basic blocks: only a set of basic blocks is protected. The techniques and their selective versions are evaluated in terms of execution time, code size, fault coverage, and Mean Work To Failure (MWTF), which is a metric to measure the trade-off between fault coverage and execution time. Results show that was possible to reduce the overheads without affecting the fault coverage, and for a small reduction in the fault coverage it was possible to significantly reduce the overheads. Lastly, since the evaluation of all the possible combinations for selective hardening of every application takes too much time, this work uses a method to extrapolate the results obtained by simulation in order to find the parameters for the selective combination of data and control-flow techniques that are probably the best candidates to improve the trade-off between reliability and overheads.
32

Modelo y arquitectura para la provisión en la nube de servicios y aplicaciones heterogéneas

Albentosa Mora, José Luis 25 September 2017 (has links)
En un mundo donde la transformación digital avanza a un ritmo veloz y aparecen de forma exponencial nuevas soluciones y capacidades tecnológicas, las grandes compañías necesitan sacar más y mejores productos al mercado. Sin embargo, sus pesadas arquitecturas tecnológicas legadas y sus capacidades de integración y escalabilidad no les permiten llegar al mercado en el tiempo y forma deseado. En este contexto, la investigación se centra en la creación de una arquitectura en la nube que permita habilitar, implantar, desarrollar e integrar servicios, soluciones y sistemas transaccionales de distinta naturaleza de forma segura, escalable, resiliente y ágil. La validación de la misma con el desarrollo de 3 patentes en explotación que implementan casos prácticos, ofrece veracidad al modelo propuesto para resolver el problema.
33

Arquitecturas de Internet de las Cosas para la gestión de infraestructuras en Ciudades Inteligentes

Sirvent-Llamas, Alejandro 19 September 2017 (has links)
Las TIC se presentan como el principal elemento para lograr una gestión más eficiente y sostenible de los recursos de una ciudad, mientras se asegura de que las necesidades de los ciudadanos para mejorar su calidad de vida queden satisfechas. Un elemento clave será la creación de nuevos sistemas que permiten la adquisición de información dentro del contexto, de forma automática y transparente, a fin de proporcionar ésta a los sistemas de toma de decisiones. En este trabajo, se presenta un modelo novedoso distribuido para la obtención, representación, que proporciona el flujo y la circulación de las personas en zonas geográficas densamente pobladas. Para llevar a cabo estas tareas, se propone un modelo sustentado sobre sistemas de adquisición de datos automáticos basados en tecnología RFID, modelos de fiabilidad y técnicas de integración. Al contrario de otras propuestas, este modelo representa una solución completa que permite la adquisición de la información del usuario de una manera transparente y fiable en un entorno no controlado.
34

Aportaciones a la tolerancia a fallos en microprocesadores bajo efectos de la radiación

Isaza-González, José 16 July 2018 (has links)
El funcionamiento correcto de un sistema electrónico, aún bajo perturbaciones y fallos causados por la radiación, ha sido siempre un factor crucial en aplicaciones aeroespaciales, médicas, nucleares, de defensa, y de transporte. La tolerancia de estos sistemas, o de los componentes que los integran, a fallos de tipo Single Event Effects (SEEs), es un tema de investigación importante y una característica imprescindible de cualquier sistema utilizado, no solo en aplicaciones críticas, sino también en las aplicaciones del día a día. Por esta razón, las aplicaciones de estos sistemas requieren, cada vez más, herramientas, métricas y parámetros específicos que permitan evaluar la tolerancia a fallos; y a su vez, permitan guiar el proceso para aplicar de forma eficiente los mecanismos de protección utilizados para la mitigación de estos fallos. En este contexto, esta tesis doctoral presenta una herramienta de inyección de fallos y la metodología para la realización de campañas de inyección de fallos tipo Single Event upset (SEU) en procesadores Commercial Off-The-Shelf (COTS) y a través de plataformas de emulación/simulación. Esta herramienta aprovecha las ventajas que ofrecen las infraestructuras de depuración de hardware tales como On-Chip Debugging (OCD), y el depurador estándar de GNU (GDB) para la ejecución y depuración de los casos de estudio. También, se analiza la posibilidad de utilizar un modelo descrito en HDL (Hardware Description Language) del procesador MSP430 de Texas Instruments para estimar la fiabilidad de las aplicaciones al principio de la fase de desarrollo. Se utilizan diferentes métodos de inyección de fallos que muestran las ventajas que ofrece la emulación FPGA en comparación con las campañas de inyección llevadas a cabo en los dispositivos reales. La vulnerabilidad del banco de registros se compara y analiza por cada uno de sus registros. Por otro lado, esta memoria de tesis presenta una métrica para la aplicación eficiente del endurecimiento selectivo basada en software, que hemos llamado SHARC (Software based HARdening Criticality). Adicionalmente, también presenta un método para guiar el proceso de endurecimiento según la clasificación generada por la métrica SHARC. De esta forma, se logra proteger los recursos internos del procesador, obteniendo una cobertura máxima de fallos con los mínimos sobrecostes de protección (overheads). Esto permite diseñar sistemas confiables a bajo coste, logrando obtener un punto óptimo entre los requisitos de confiabilidad y las restricciones de diseño, evitando el uso excesivo de costosos mecanismos de protección (hardware y software).
35

Modelado e implementación de sistemas robóticos orientados al sector calzado

Román-Ibáñez, Vicente 17 September 2018 (has links)
Este trabajo pretende estrechar la distancia que separa de la Industria 4.0 a determinados sectores manufactureros que todavía no han iniciado su carrera hacia la nueva revolución industrial, centrándose en el caso del sector calzado, por sus peculiares características, que pueden tomarse como modelo para realizar transferencia tecnológica a otros sectores con dificultades similares. Tras analizar algunos de los problemas que están frenando la adaptación de dichas empresas al nuevo paradigma, se procede a estudiar y combinar diferentes tecnologías, muy presentes en la Industria 4.0, como son la simulación, robótica, realidad virtual o los sistemas de monitorización para entornos distribuidos, que permitan al sector avanzar en su automatización para poder seguir siendo competitivas en un futuro próximo, tanto a nivel operativo como formativo. En cuanto a los resultados de esta investigación, los referentes a simulación, prevención de colisiones y monitorización se han aplicado a celdas robotizadas reales del sector del calzado, en un entorno de laboratorio. Los resultados que hacen referencia a la mejora de la formación académica mediante el uso de realidad virtual han sido probados en un entorno de prueba, y se prevé realizar ensayos reales en futuros cursos dentro de los estudios de Grado en Ingeniería Robótica de la Universidad de Alicante.
36

Técnicas de Aprendizaje Automático Aplicadas al Procesamiento de Información Demográfica

Ruiz, Zoila 11 June 2019 (has links)
En este trabajo, se presenta una metodología orientada a procesar datos provenientes de censos o encuestas. La metodología propuesta se basa en las características de los grandes volúmenes de datos y la relevancia que tiene la información que se obtiene de censos o encuestas. El método propuesto aborda el problema de imputación de datos perdidos o ausentes que son muy frecuentes en censos o encuestas. Previo al proceso de imputación, la información necesita ser procesada para extraer un subconjunto de información completa necesaria para entrenar modelos de aprendizaje automático con la finalidad de predecir los valores ausentes. Para conseguir este dataset se utilizaron varias técnicas tradicionales tales como Pairwise Deletion y Listwise Deletion con la finalidad de eliminar observaciones que presentan valores perdidos. Como siguiente paso en la metodología, se plantea la generación de grupos de información a través de técnicas de aprendizaje automático no supervisado y a través de redes neuronales artificiales. Estos grupos de información que comparten características comunes sirven como fuente de entrada en el proceso de imputación de datos perdidos o ausentes. Los resultados obtenidos en la fase experimental muestran que la generación de grupos (de forma manual o automática) permiten mejorar la clasificación de la variable de prueba, sin embargo también se debe considerar la etapa previa a la de generación de grupos. Finalmente, como caso de estudio para validar la propuesta se plantea la imputación de datos para calcular la tasa de mortalidad infantil con brechas educativas para lo cual se seleccionó un dataset de pruebas de una región geográfica específica.
37

Diseño System on Chip de los centros nerviosos del sistema neurorregulador de los humanos. Aplicación al centro córtico-diencefálico

Zambrano-Mendez, Leandro 12 July 2019 (has links)
El sistema neurorregulador en los humanos es un sistema nervioso complejo que consta de un grupo heterogéneo de centros nerviosos. Estos centros están distribuidos a lo largo de la médula espinal, actúan de forma autónoma, se comunican mediante interconexiones nerviosas, gobiernan y regulan el comportamiento de órganos y sistemas en los seres humanos. A partir del estudio del funcionamiento y composición del sistema neurorregulador del tracto urinario inferior (LUT), se ha conseguido aislar los centros que intervienen en su comportamiento. El objetivo es comprender el funcionamiento individual de cada centro para crear un modelo general del sistema neurorregulador capaz de operar a nivel de centro nervioso. El modelo creado se basa en la teoría de los sistemas multiagente (MAS) basados en agentes con capacidad de percibir, deliberar y ejecutar (agentes PDE). En nuestro modelo, cada agente representa el comportamiento de un centro nervioso. La propuesta supone un avance con respecto a los modelos existentes, que al no permitir la intervención a nivel de los elementos que componen el sistema, ni tratar aspectos como, por ejemplo, disfunciones, de forma independiente o aislada, son modelos de caja negra. A partir del estudio realizado a lo largo de los últimos veinte años y del modelo MAS definido, en esta investigación se propone como objetivo la propuesta de un modelo de centro nervioso para el diseño System on Chip (SoC) de un procesador con la estructura de un agente PDE capaz de desempeñar las funciones de un centro nervioso del sistema neurorregulador en los humanos: en concreto, del centro nervioso córtico-diencefálico. Esta propuesta se caracteriza porque el funcionamiento del centro es totalmente configurable y programable, con la idea de que el diseño propuesto pueda ser válido para otros centros que componen el sistema neurorregulador. Esta investigación supone un nuevo paso adelante en nuestro objetivo de crear un chip parametrizable, capaz de desarrollar cualquier función neurorreguladora, implantable en el cuerpo y con capacidad para operar de forma coordinada con el sistema neurorregulador biológico. En esta memoria se presenta de forma cronológica el proceso de la investigación junto con sus principales logros: un modelo formal del centro nervioso córtico-diencefálico, el diseño en hardware de un procesador de centro nerviosos parametrizable, un prototipo sobre tecnología en hardware reconfigurable (FPGA) de este diseño, un entorno de pruebas y simulación para la evaluación de la propuesta y, finalmente, el análisis de los resultados obtenidos y la comparación de su comportamiento con el de los datos obtenidos a partir de pacientes reales, observando que se ajusta al esperado en un ser humano. Por lo tanto, los resultados obtenidos avalan ampliamente la validez de la propuesta realizada, ya que muestran que los sistemas obtenidos son capaces de desplegar los comportamientos para los que fueron diseñados originalmente pero que, además, es posible su rápida adaptación, modificación, actualización, automatización y absorción de nuevas tecnologías y nuevo conocimiento.
38

Caracterización y cuantificación de la identidad cultural: aplicación a la cultura indígena amazónica

Espín-León, Aldrin 06 July 2020 (has links)
El presente documento forma parte del proceso doctoral en tecnología informática y computación y en reconocimiento a los convenios entre la Universidad de Alicante y la Universidad Central del Ecuador que ésta a su vez subscribió un convenio de cooperación con los pueblos de la nacionalidad indígena amazónica Waorani. Este documento es el resultado de un estudio multidisciplinar en el que, no solo intervienen las ciencias de la computación, sino que también, incluye áreas como la sociología y la antropología a las cuales se pretende dar una respuesta desde la tecnología a un problema de identidad cultural de los pueblos y comunidades indígenas. Los pueblos e indígenas latinoamericanos han experimentado acelerados cambios y transformaciones en su identidad cultural a partir del contacto con culturas externas a su territorio, en especial con aquellas culturas que proceden del mundo occidental. Este es el caso de los pueblos indígenas que viven en la Amazonía, su identidad se ha visto afectada drásticamente en las últimas décadas como resultado de un proceso de aculturación occidental. Las dificultades para obtener datos de campo y la complejidad inherente del mismo dato social, no han permitido establecer indicadores culturales específicos para medir el grado de identidad de poblaciones indígenas amazónicas. En tal sentido, para determinar el grado de identidad indígena, fue necesario disponer de un instrumento capaz de obtener información de identidad cultural. El instrumento fue diseñado a partir de la información cualitativa obtenida desde la óptica de los mismos indígenas en su propio territorio. El estudio cualitativo dio como resultado un instrumento que aporta información en noventa y nueve ítems agrupados en treinta subdimensiones y cinco dimensiones de identidad cultural. Luego de aplicar el instrumento a tres poblaciones (indígenas Waoranis y dos ciudades occidentalizadas) con diferente grado de contacto con la sociedad occidental, fue sometido a pruebas de validez y de fiabilidad y se procedió a determinar si existían diferencias identitarias y culturales entre el pueblo indígena y las poblaciones de corte occidental. Por otro lado, se utilizaron técnicas de inteligencia artificial que contribuyeron a la clasificación, detección y cuantificación de la identidad cultural, identificando las variables que más y que menos afectaban al proceso de aculturación de los pueblos indígenas. Para ello, este trabajo de investigación presenta un método cuantitativo, desde el punto de vista del aprendizaje automático y la Inteligencia Artificial (IA), que evalúa distintas variables de la identidad cultural expresadas en las dimensiones y subdimensiones de las tres poblaciones con el fin de determinar si dichas poblaciones pueden clasificarse obedeciendo a la información de sus identidades. El método propuesto, analiza y compara a través de los valores de sensibilidad, especificidad y precisión la capacidad de clasificación de varios clasificadores clásicos utilizados en la IA. Además, cuantifica la importancia de cada uno de los aspectos de la identidad indígena. Dichos aspectos fueron agrupados en dos clases: aquellos que más contribuyen a la identidad Waorani, obteniendo una diferenciación y clasificación importante con las ciudades y, por otro lado, aquellos que no contribuyen significativamente a la clasificación y que, por tanto, no estarían afectando a su identidad indígena. La aplicación sistemática del instrumento junto con el enfoque basado en inteligencia artificial puede proporcionar en la toma de decisiones información valiosa sobre qué aspectos de la identidad indígena son más sensibles al cambio y, por lo tanto, ayudar a diseñar políticas de desarrollo que interfieran mínimamente con su identidad cultural. Por otro lado, la influencia del propio colonialismo en la pérdida de identidad cultural también se convierte en la causa de la migración indígena a las zonas urbanas occidentales. En este contexto, uno de los elementos principales para determinar la causa y el efecto de la migración sería medir el grado de identidad étnica de cada individuo indígena o de una comunidad entera en su conjunto. Para este propósito, se proporciona una metodología para obtener la distancia de identidad cultural entre individuos. Ésta se basa en el cálculo de la distancia topográfica mínima entre dos puntos en el espacio conformado por un mapa autoorganizado de las características de identidad de individuos de diferentes grupos de población. Por lo tanto, el método propuesto es capaz de determinar las distancias étnicas entre los individuos y/o grupos de éstos.
39

Modelo de Criptoprocesador de Curvas Elípticas en GF(2m) Basado en Hardware Reconfigurable

Brotons, Francisco Javier 15 January 2016 (has links)
En la presente tesis se ha llevado a cabo una investigación en el ámbito de la criptografía centrada en los criptosistemas basados en curvas elípticas. En concreto, se ha desarrollado un modelo de criptoprocesador de curvas elípticas en GF(2m) con el objetivo de abordar los requisitos, cada vez más en boga, de utilizar la menor cantidad de recursos posible y a la vez minimizar los tiempos de respuesta obtenidos. De forma más específica, uno de los objetivos se dirige a desarrollar un multiplicador capaz de trabajar de forma eficiente en cualquier campo GF(2m) independientemente de cuál sea el tamaño de palabra seleccionado para operar. Para llevar a cabo este objetivo se ha realizado un análisis de los antecedentes y de los trabajos relacionados con el ámbito de la problemática predefinida. Este análisis nos ha permitido centrar el problema y a partir de éste plantear una solución novedosa con respecto al resto de enfoques existentes en este campo de investigación. Se ha implementado un microprocesador de 8 bits de propósito general en hardware reconfigurable minimizando su repertorio de instrucciones. A partir de él se han obtenido los resultados que nos proporcionan su programación en el lenguaje ensamblador descrito y se propone como propuesta de mejora la inclusión de un elemento multiplicador que disminuya los tiempos de respuesta. Para ello se introducen los multiplicadores existentes en la actualidad; tanto de tipo paralelo como serie. Posteriormente, como propuesta de mejora real, se ha desarrollado un multiplicador hardware específico capaz de trabajar en GF(2m) y con reducción intercalada que puede ser utilizado en cualquier sistema sea cual sea su campo de trabajo e independientemente del tamaño de palabra que utilice. Este multiplicador se ha implementado con diferentes tamaños de palabra y en los campos finitos de característica 2 recomendados por el N.I.S.T. Como paso final para validar este multiplicador se ha implementado varios modelos de un criptoprocesador con un repertorio de instrucciones específico con diferentes tamaños de palabra y en diferentes campos y se han comparado con los existentes para comprobar la eficiencia de la propuesta.
40

Arquitectura para el control visual de ensamblajes en Industria 4.0 basado en aprendizaje profundo

Zamora Hernández, Mauricio Andrés 27 October 2020 (has links)
En Costa Rica, el tipo de empresa que sobresale en el mercado es el de las Micro, Pequeñas y Medianas Empresas (MiPyMEs). Para este tipo de empresas, la calidad y consistencia de los productos son elementos diferenciadores para competir en el mercado. Además, estás empresas tiene recursos económicos limitados para implementar tecnologías que le permitan incursionar en la cuarta revolución industrial. Aunque las MiP y MEs, y en concreto las del sector manufacturero, son consideradas uno de los motores económico del país, estás entidades no suelen tener ayudas del gobierno para desarrollarse digitalmente. Esto situación nos motivó a plantear un estudio para encontrar la manera en que se puede ayudar a las MiP y MEs a mejorar los procesos de manufactura. Debido principalmente a que en este tipo de negocios se basan en trabajos manuales, con personal poco cualificado; por lo que estos elementos afectan directamente la calidad de los productos desde su concepción. Se planteó un sistema de control de calidad visual que ayude a controlar la calidad durante la fase de producción, incentivando así el desarrollo de productos de calidad. Para este propósito se plantean soluciones basadas en técnicas de Visión por computadora (CV), junto con algoritmos de Machine Learning y arquitecturas de Deep Learning. Esta tesis doctoral se inició realizando una revisión del estado del arte sobre los procesos de interacción humano-robot (HRI), sistemas de control automático de calidad en los sistemas de producción, aplicación de la CV en entornos de manufactura, utilización de arquitecturas de Deep Learningy las bases de datos de imágenes de herramientas, piezas y componentesr equeridos para la manufactura. Así como bases de datos de vídeos de acciones. El resultado del estudio sirvió como base para el desarrollo del estado del arte y el conocimiento de las técnicas actuales de Deep Learning que permiten identificar objetos y acciones; particularmente para el control de la producción con operarios. Por lo que se logró evidenciar que no existían soluciones inteligentes basada en visión que permitan controlar secuencias de ensamble en la producción manual. Tras este estudio del estado del arte, se ha propuesto una arquitectura de visión por computador, reconocimiento de objetos y acciones, además de un lenguaje descriptivo. Se compone de tres módulos principales, el primero de ellos se encarga del procesamiento visual; donde se identifican los objetos y sus ubicaciones, también se reconocen las acciones ejecutadas por el operario. El segundo módulo se encarga del procesamiento del lenguaje que describe las acciones, que va ser utilizado luego para evaluar la ejecución del operario. Y el último módulo se encarga de tomar las salidas de los dos módulos anteriores, para determinar si realmente realiza el ensamble como está estipulado. Además, la arquitectura es capaz de establecer cuáles son las acciones siguientes que debe realizar el operario, para proveerle información de las herramientas o partes que debe tomar para continuar y minimizar los errores por uso incorrecto de herramientas o partes. Es importante señalar que, además de la arquitectura, este trabajo también genera como resultado, dos bases de datos. Debido a que, durante la investigación del estado del arte tampoco se logró determinar la existen-da de bases de datos para el entrenamiento de redes para la detección de herramientas o acciones de manufactura. La primera base de datos es de imágenes de herramientas, partes y componentes comunes de manufactura y la segunda se compone de videos de acciones comunes en los procesos de ensamblaje. También se propuso la generación de un lenguaje que permite describir las acciones necesarias para un proceso de ensamble. Mediante una secuencia de manufactura descrita con este lenguaje, se puede comparar un proceso de manufactura con las instrucciones que se van detectando en tiempo real. Determinando si el operario sigue los pasos tal y como fueron diseñados por los expertos en el diseño de productos. Este lenguaje, en conjunto con el módulo de verificación de acciones, permite que el sistema genere predicciones de las siguientes instrucciones o acciones.

Page generated in 0.0795 seconds