61 |
Gait analysis using computer vision for the early detection of elderly syndromes. A formal proposalNieto-Hidalgo, Mario 03 March 2017 (has links)
El objetivo principal de esta tesis es el desarrollo de un sistema de análisis de la marcha basado en visión que permita clasificar la marcha patológica. Este objetivo general se divide en tres subobjetivos específicos más concretos: definición formal de la marcha, especificación e implementación de un sistema de obtención de parámetros de la marcha basado en visión y clasificación de la marcha patológica. En el primer subobjetivo, definición formal de la marcha, nuestros esfuerzos consisten en obtener una definición de la marcha que incluya la visión por computador pero sin excluir otros métodos y que sea lo suficientemente abierta como para incluir todos los casos de marcha humana. La definición propuesta es la siguiente: "Gait is the anthropomorphic upright self-displacement, in an alternating stepping of two feet, with no additional fulcra, keeping at least a point of support at every time, on a horizontal or slightly inclined surface." A partir de esta definición, las variables que consideramos son tiempos y longitudes de paso y zancada, tiempos de apoyo monopodal y bipodal, velocidad, cadencia, etc... Para el segundo subobjetivo, especificación e implementación de un sistema de obtención de parámetros de la marcha basado en visión, nos centramos en el análisis de la marcha mediante visión por computador utilizando únicamente una cámara RGB, que obtenga imágenes laterales y frontales del sujeto. El algoritmo propuesto es capaz de extraer las variables de la marcha, establecidas en la definición del objetivo de especificación, con suficiente precisión, de modo que la marcha puede ser interpretada y clasificada. La decisión de limitar la infraestructura necesaria a una única cámara RGB, obedece al interés por abaratar los costes del sistema y que sea sostenible medioambientalmente, ya que no requiere de energía adicional para capturar la imagen, sino que utiliza la radiación lumínica que inunda el escenario, ya sea de forma natural o artificial. Este sistema actúa como interfaz de entrada del subobjetivo tres que son las variables de la marcha propuestas en el subobjetivo uno. Por tanto, el subobjetivo dos puede ser reemplazado por otro sistema basado en otro fenómeno como es el caso de un sistema inercial, siempre y cuando pueda proporcionar las variables definidas en el subobjetivo uno. El subobjetivo tres, clasificador de la marcha patológica, usa las variables proporcionadas por el sistema del subobjetivo dos para caracterizar la marcha y clasificarla. Mediante una serie de casos de entrenamiento, el sistema genera los modelos de marcha patológica y normal. A partir de estos modelos, el clasificador es capaz de determinar a qué modelo pertenece la entrada de parámetros de la marcha proporcionada por el subobjetivo dos. El objetivo de formalización nos ha llevado a profundizar en los aspectos conceptuales y procedimentales del conocimiento y de su creación, con la consecuencia de aportar sendas definiciones para problema y modelo, así como hallar una justificación formal, basada en la teoría de conjuntos, que confiere coherencia causal al método experimental. Además de encontrar formalmente la justificación causal del método científico, hemos podido encajar en ese marco formal los enfoques divide et vinces, model driven y top-down de resolución de problemas ingenieriles. Al tiempo que hemos encontrado que la técnica top-down de diseño es coincidente con el método científico de resolución de problemas, el método bottom-up es coherente con la implementación de prototipos, lo cual justifica la restricción de su utilización al diseño de instancias para las que ya se conoce solución.
|
62 |
Deep Learning for 3D Perception: Computer Vision and Tactile SensingGarcia-Garcia, Alberto 23 October 2019 (has links)
The care of dependent people (for reasons of aging, accidents, disabilities or illnesses) is one of the top priority lines of research for the European countries as stated in the Horizon 2020 goals. In order to minimize the cost and the intrusiveness of the therapies for care and rehabilitation, it is desired that such cares are administered at the patient’s home. The natural solution for this environment is an indoor mobile robotic platform. Such robotic platform for home care needs to solve to a certain extent a set of problems that lie in the intersection of multiple disciplines, e.g., computer vision, machine learning, and robotics. In that crossroads, one of the most notable challenges (and the one we will focus on) is scene understanding: the robot needs to understand the unstructured and dynamic environment in which it navigates and the objects with which it can interact. To achieve full scene understanding, various tasks must be accomplished. In this thesis we will focus on three of them: object class recognition, semantic segmentation, and grasp stability prediction. The first one refers to the process of categorizing an object into a set of classes (e.g., chair, bed, or pillow); the second one goes one level beyond object categorization and aims to provide a per-pixel dense labeling of each object in an image; the latter consists on determining if an object which has been grasped by a robotic hand is in a stable configuration or if it will fall. This thesis presents contributions towards solving those three tasks using deep learning as the main tool for solving such recognition, segmentation, and prediction problems. All those solutions share one core observation: they all rely on tridimensional data inputs to leverage that additional dimension and its spatial arrangement. The four main contributions of this thesis are: first, we show a set of architectures and data representations for 3D object classification using point clouds; secondly, we carry out an extensive review of the state of the art of semantic segmentation datasets and methods; third, we introduce a novel synthetic and large-scale photorealistic dataset for solving various robotic and vision problems together; at last, we propose a novel method and representation to deal with tactile sensors and learn to predict grasp stability.
|
63 |
Fault tolerance in critical aerospace embedded systems: Multi-threaded mitigation, non-intrusive compiler-guided hardening, and early prediction of proton and neutron induced soft errorsSerrano-Cases, Alejandro 30 October 2020 (has links)
Hoy día, existe una creciente demanda de las capacidades computacionales en sistemas críticos, donde los estados inesperados o inoperantes no son aceptables. Algunos de estos sistemas funcionan en entornos hostiles, sufriendo un comportamiento anómalo (faults), tanto en el software como en el hardware. Con objeto de solucionar esta problemática, se está recurriendo a la utilización de soluciones de computación, que explotan las nuevas características presentes en los microprocesadores de última generación. Entre estas características, destaca un mayor número de núcleos, mejor rendimiento computacional y menor consumo energético. Esta evolución de los microprocesadores es debida, entre otros factores, a la mejora en el proceso de fabricación fotolitográfico, sin embargo, este proceso está reduciendo progresivamente la tolerancia de los nuevos microprocesadores a los fallos inducidos por la radiación, conocidos como Efecto de Evento Único (Single Event Effect - SEE). Destacando, entre las fuentes que generan un comportamiento anómalo, las fuentes naturales de radiación, como los rayos cósmicos, o las fuentes de radiación artificial, como las producidas por máquinas de radio-diagnóstico. En esta tesis, se propone varias estrategias para mejorar la fiabilidad de los sistemas críticos que operan en presencia de radiación ionizante, tanto en el espacio, como a nivel terrestre. En este contexto, la radiación ionizante puede alterar la salida de un sistema digital creando interferencias, fallos y alteraciones permanentes en los circuitos, entre otras muchas incidencias. Como resultado, los sistemas críticos pueden comportarse de manera inesperada, produciendo resultados erróneos o entrando en estados no operativos, que requieran un mecanismo externo para recuperar un funcionamiento correcto (watchdogs, interrupciones temporizadas). En la bibliografía, se encuentra que las técnicas basadas en redundancia, aplicables tanto a hardware como a software, son las soluciones más efectivas para detectar y mitigar este tipo de comportamiento inesperado. Estas técnicas basadas en redundancia, presentan una alta variabilidad, dado que puede aplicarse a estructuras de diferente complejidad. En el caso de redundancia software, se puede utilizar a nivel de instrucciones de ensamblador, accesos de memoria, funciones o métodos, incluso a nivel de procesos o hilos. Es importante destacar que, la variabilidad de las diferentes técnicas de mitigación de fallos, provoca una alta complejidad de la predicción del efecto de estas técnicas en el conjunto del sistema. De manera paradójica, la aplicación de estas técnicas de endurecimiento a algunos elementos de un sistema, en ocasiones, puede dar lugar a un aumento de la susceptibilidad del sistema a fallos inducidos por radiación, por consiguiente, a una reducción significativa de la fiabilidad. Esta paradoja, es debida, al aumento de los sobrecostes en los recursos utilizados, o al incremento computacional de dicha técnica de endurecimiento. De manera general, con objeto de reducir la susceptibilidad a fallos inducidos por la radiación, en diferentes sistemas críticos, en esta tesis, se pretende mejorar la fiabilidad, adaptando o proporcionando nuevas técnicas y herramientas para el endurecimiento software en microprocesadores de última generación. Para ello, se han desarrollo dos técnicas, la primera se centra en la búsqueda automática de soluciones maximizando la fiabilidad; la segunda técnica desarrollada, consiste en un endurecimiento software basado en redundancia, optimizado para obtener un mayor rendimiento computacional. Además, se ha desarrollado un nuevo modelo matemático semi-empírico, para evaluar y predecir los fallos inducidos por radiación. La primera de las técnicas desarrolladas, explora, de manera eficiente, soluciones que maximicen la fiabilidad, buscando optimizaciones y endurecimientos que aumenten el rendimiento del sistema, reduzcan los recursos utilizados y, al mismo tiempo, aumenten la cobertura frente a fallos. Con objeto de optimizar el rendimiento y el uso de recursos de las aplicaciones y circuitos, en esta tesis, se utilizan técnicas de aprendizaje automático y algoritmos de búsqueda meta-heurísticos, inspirados en los sistemas naturales (algoritmos genéticos), optimizados con técnicas de optimización multiobjetivo basadas en el concepto de eficiencia de Pareto. Este algoritmo de búsqueda optimizado, permite mejorar al mismo tiempo el rendimiento del sistema, el uso de los recursos y la cobertura de fallos, ya que es capaz de explorar un espacio de soluciones multidimensional de manera eficiente. La aplicación de este algoritmo, permite alterar la generación de las aplicaciones, por parte del compilador, logrando obtener aplicaciones más fiables de forma no intrusiva, es decir, sin necesidad de modificar el código. La segunda de las técnicas desarrolladas, propone una mejora de las técnicas de endurecimiento clásicas, empleando esquemas paralelos basados en el multiprocesamiento simétrico y asimétrico (SMP y AMP, respectivamente). Con objeto de lograr un incremento en la fiabilidad, se han utilizado sistemas mononúcleo y multinúcleo, a los que se les ha eliminado la necesidad de un sistema operativo, con el fin de reducir los sobrecostes de recursos y aumentar el rendimiento, manteniendo la cobertura frente a fallos. Por último, se ha desarrollado un modelo semi-empírico que permite la evaluación y selección de las configuraciones más fiables. Además, el modelo también permite realizar un endurecimiento selectivo de los recursos críticos, antes de acometer una campaña de radiación acelerada. En el desarrollo del modelo, se emplea tanto datos históricos de campañas de radiación real, como los resultados de las campañas de inyección simulada de las aplicaciones. Así, el modelo es capaz de realizar una predicción temprana de la fiabilidad de las nuevas soluciones, antes de probarlas bajo radiación real en aceleradores de partículas. Para verificar el modelo, se realizaron pruebas de radiación acelerada de varias soluciones, desarrolladas en esta tesis, empleando protones en el Centro Nacional de Aceleradores (CNA) de Sevilla, y empleando neutrones en Los Álamos National Laboratory (LANL - USA).
|
64 |
Modelos neuronales basados en la metaplasticidad para la ayuda al diagnóstico clínicoVives-Boix, Víctor 03 December 2021 (has links)
La inteligencia artificial tiene el potencial de transformar radicalmente la asistencia sanitaria aportando gran rapidez en la gestión de la información que manejan los profesionales y repercutiendo directamente en sus actuaciones. Los estudios más recientes sobre el rol actual de la inteligencia artificial en la medicina y la atención sanitaria, identifican cuatro líneas principales de investigación directamente relacionadas con la mejora de los sistemas de ayuda a la decisión clínica: gestión de los servicios de salud, medicina predictiva, datos del paciente y toma de decisiones clínicas. En esta tesis doctoral nos centramos en la segunda línea de investigación, la medicina predictiva, con el objetivo de mejorar el rendimiento de los actuales métodos y algoritmos de inteligencia artificial para el diagnóstico clínico. Para ello, se ha incorporado en algunas de las redes neuronales artificiales más utilizadas de la literatura actual, una propiedad biológica que emerge del cerebro y que está directamente relacionada con la homeostasis, la memoria y el aprendizaje: la metaplasticidad sináptica. La metaplasticidad sináptica es un fenómeno biológico que se define brevemente como la plasticidad de la plasticidad sináptica, lo que significa que la historia previa de la actividad sináptica determina su plasticidad actual. Este fenómeno interfiere con algunos de los mecanismos subyacentes que se consideran importantes en los procesos de memoria y aprendizaje, como la potenciación a largo plazo y la depresión a largo plazo. En un modelo computacional la metaplasticidad sináptica se define como metaplasticidad artificial, un procedimiento de aprendizaje que produce una mayor ponderación de los pesos sinápticos de los patrones menos frecuentes que de los patrones más frecuentes, como una forma de extraer más información de los primeros que de los segundos. Esta mejora se estima que puede afectar al rendimiento en las redes neuronales artificiales tanto en términos de precisión como en tiempos de convergencia o velocidad de aprendizaje. Así mismo, dadas ambas mejoras, se plantea abordar también uno de los grandes problemas de la inteligencia artificial en medicina: el entrenamiento de redes neuronales artificiales utilizando conjuntos de datos reducidos. Este mecanismo biológico se ha incorporado en diferentes tipos de redes neuronales artificiales como un mecanismo de actualización de pesos que modifica la ponderación en función de la frecuencia de un patrón. Además, dadas las particularidades de cada arquitectura de red neuronal, la modificación de sus procesos de aprendizaje para la incorporación de la metaplasticidad artificial no es una tarea trivial. En este trabajo se han utilizado dos tipos de redes neuronales artificiales orientadas al análisis de datos y al diagnóstico por imagen, respectivamente: las redes neuronales artificiales de base radial y las redes neuronales convolucionales. Para la primera, se ha incorporado la metaplasticidad artificial modificando el aprendizaje en tres fases, mientras que para la segunda, se ha modificado el proceso de convolución de las capas convolucionales de la red. En ambos casos se ha logrado que la red neuronal mejore su rendimiento tanto en términos de precisión como en velocidad de convergencia, confirmando así las hipótesis iniciales.
|
65 |
Use of Approximate Triple Modular Redundancy for Fault Tolerance in Digital CircuitsAlbandes, Iuri 26 November 2018 (has links)
La triple redundancia modular (TMR) es una técnica bien conocida de mitigación de fallos que proporciona una alta protección frente a fallos únicos pero con un gran coste en términos de área y consumo de potencia. Por esta razón, la redundancia parcial se suele aplicar para aligerar estos sobrecostes. En este contexto, la TMR aproximada (ATMR), que consisten en la implementación de la redundancia triple con versiones aproximadas del circuito a proteger, ha surgido en los últimos años como una alternativa a la replicación parcial, con la ventaja de obtener mejores soluciones de compromiso entre la cobertura a fallos y los sobrecostes. En la literatura ya han sido propuestas varias técnicas para la generación de circuitos aproximados, cada una con sus pros y sus contras. Este trabajo realiza un estudio de la técnica ATMR, evaluando el coste-beneficio entre el incremento de recursos (área) y la cobertura frente a fallos. La primera contribución es una nueva aproximación ATMR donde todos los módulos redundantes son versiones aproximadas del diseño original, permitiendo la generación de circuitos ATMR con un sobrecoste de área muy reducido, esta técnica se denomina Full-ATMR (ATMR completo o FATMR). El trabajo también presenta una segunda aproximación para implementar la ATMR de forma automática combinando una biblioteca de puertas aproximadas (ApxLib) y un algoritmo genético multi-objetivo (MOOGA). El algoritmo realiza una búsqueda ciega sobre el inmenso espacio de soluciones, optimizando conjuntamente la cobertura frente a fallos y el sobrecoste de área. Los experimentos comparando nuestra aproximación con las técnicas del estado del arte muestran una mejora de los trade-offs para diferentes circuitos de prueba (benchmark).
|
66 |
Metodología para la gestión integral de los procesos de producción: modelado de la maquinaria industrial como un sistema de gestión de procesos de negocioGilart Iglesias, Virgilio 26 March 2010 (has links)
No description available.
|
67 |
Modelo de prestación de servicios ITS de valor agregado: aplicación a los sistemas de gestión de aparcamientoHerrera Quintero, Luis Felipe 01 April 2011 (has links)
La presente tesis propone un modelo para la prestación de servicios de valor agregado en el ámbito de los Sistemas Inteligentes de Transporte (Intelligent Transportation Systems -ITS) dando solución a los problemas de integración, interoperabilidad, compatibilidad y escalabilidad provocados por la gran cantidad de tecnologías que componen el escenario de los ITS. / Con el fin de integrar todos los elementos que componen los sistemas ITS, el modelo propuesto se basa en las Arquitecturas Orientadas a Servicios (Services Oriented Architecture -SOA) ya que es una solución altamente exitosa en el contexto de las tecnologías de la información y que en otros ámbitos ha contribuido a la prestación de servicios. / Las principales aportaciones del trabajo de investigación son: la creación de un modelo para la prestación de servicios ITS de valor agregado; la creación de un nuevo concepto para la unidad de carretera (Roadside Unit -RSU) la cual integra el paradigma SOA para ofrecer sus funcionalidades en un esquema basado en servicios (Roadside Unit as a Service -RSUAAS); la creación de un catálogo que relaciona las tecnologías y los servicios ITS y que sirve de elemento fundamental para lograr la especialización de los fabricantes; La creación de una arquitectura que aprovecha las ventajas del esquema orientado a servicios para ofrecer servicios de valor agregado al usuario ITS a partir de las tecnologías.
|
68 |
Modelado de sistemas robóticos basado en servicios e inspirado en el funcionamiento y organización del sistema neurorregulador en los humanosBerna-Martinez, Jose Vicente 18 March 2011 (has links)
No description available.
|
69 |
Metodología para la sistematización de los servicios de consultoría TI: aplicación al sector de la manufacturaLópez Paz, Carlos Ramón 22 July 2011 (has links)
No description available.
|
70 |
Modelo para la integración de técnicas heterogéneas de detección de intrusos en sistemas distribuidosMora Gimeno, Francisco José 05 February 2010 (has links)
No description available.
|
Page generated in 0.0983 seconds