• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 143
  • 37
  • 3
  • 3
  • 1
  • Tagged with
  • 187
  • 73
  • 48
  • 39
  • 35
  • 33
  • 31
  • 31
  • 31
  • 31
  • 31
  • 30
  • 29
  • 28
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Angular variation as a monocular cue for spatial percepcion

Navarro Toro, Agustín Alfonso 18 June 2009 (has links)
Monocular cues are spatial sensory inputs which are picked up exclusively from one eye. They are in majority static features that provide depth information and are extensively used in graphic art to create realistic representations of a scene. Since the spatial information contained in these cues is picked up from the retinal image, the existence of a link between it and the theory of direct perception can be conveniently assumed. According to this theory, spatial information of an environment is directly contained in the optic array. Thus, this assumption makes possible the modeling of visual perception processes through computational approaches. In this thesis, angular variation is considered as a monocular cue, and the concept of direct perception is adopted by a computer vision approach that considers it as a suitable principle from which innovative techniques to calculate spatial information can be developed. The expected spatial information to be obtained from this monocular cue is the position and orientation of an object with respect to the observer, which in computer vision is a well known field of research called 2D-3D pose estimation. In this thesis, the attempt to establish the angular variation as a monocular cue and thus the achievement of a computational approach to direct perception is carried out by the development of a set of pose estimation methods. Parting from conventional strategies to solve the pose estimation problem, a first approach imposes constraint equations to relate object and image features. In this sense, two algorithms based on a simple line rotation motion analysis were developed. These algorithms successfully provide pose information; however, they depend strongly on scene data conditions. To overcome this limitation, a second approach inspired in the biological processes performed by the human visual system was developed. It is based in the proper content of the image and defines a computational approach to direct perception. The set of developed algorithms analyzes the visual properties provided by angular variations. The aim is to gather valuable data from which spatial information can be obtained and used to emulate a visual perception process by establishing a 2D-3D metric relation. Since it is considered fundamental in the visual-motor coordination and consequently essential to interact with the environment, a significant cognitive effect is produced by the application of the developed computational approach in environments mediated by technology. In this work, this cognitive effect is demonstrated by an experimental study where a number of participants were asked to complete an action-perception task. The main purpose of the study was to analyze the visual guided behavior in teleoperation and the cognitive effect caused by the addition of 3D information. The results presented a significant influence of the 3D aid in the skill improvement, which showed an enhancement of the sense of presence. / Las señales monoculares son entradas sensoriales capturadas exclusivamente por un solo ojo que ayudan a la percepción de distancia o espacio. Son en su mayoría características estáticas que proveen información de profundidad y son muy utilizadas en arte gráfico para crear apariencias reales de una escena. Dado que la información espacial contenida en dichas señales son extraídas de la retina, la existencia de una relación entre esta extracción de información y la teoría de percepción directa puede ser convenientemente asumida. De acuerdo a esta teoría, la información espacial de todo le que vemos está directamente contenido en el arreglo óptico. Por lo tanto, esta suposición hace posible el modelado de procesos de percepción visual a través de enfoques computacionales. En esta tesis doctoral, la variación angular es considerada como una señal monocular, y el concepto de percepción directa adoptado por un enfoque basado en algoritmos de visión por computador que lo consideran un principio apropiado para el desarrollo de nuevas técnicas de cálculo de información espacial. La información espacial esperada a obtener de esta señal monocular es la posición y orientación de un objeto con respecto al observador, lo cual en visión por computador es un conocido campo de investigación llamado estimación de la pose 2D-3D. En esta tesis doctoral, establecer la variación angular como señal monocular y conseguir un modelo matemático que describa la percepción directa, se lleva a cabo mediante el desarrollo de un grupo de métodos de estimación de la pose. Partiendo de estrategias convencionales, un primer enfoque implanta restricciones geométricas en ecuaciones para relacionar características del objeto y la imagen. En este caso, dos algoritmos basados en el análisis de movimientos de rotación de una línea recta fueron desarrollados. Estos algoritmos exitosamente proveen información de la pose. Sin embargo, dependen fuertemente de condiciones de la escena. Para superar esta limitación, un segundo enfoque inspirado en los procesos biológicos ejecutados por el sistema visual humano fue desarrollado. Está basado en el propio contenido de la imagen y define un enfoque computacional a la percepción directa. El grupo de algoritmos desarrollados analiza las propiedades visuales suministradas por variaciones angulares. El propósito principal es el de reunir datos de importancia con los cuales la información espacial pueda ser obtenida y utilizada para emular procesos de percepción visual mediante el establecimiento de relaciones métricas 2D- 3D. Debido a que dicha relación es considerada fundamental en la coordinación visuomotora y consecuentemente esencial para interactuar con lo que nos rodea, un efecto cognitivo significativo puede ser producido por la aplicación de métodos de L estimación de pose en entornos mediados tecnológicamente. En esta tesis doctoral, este efecto cognitivo ha sido demostrado por un estudio experimental en el cual un número de participantes fueron invitados a ejecutar una tarea de acción-percepción. El propósito principal de este estudio fue el análisis de la conducta guiada visualmente en teleoperación y el efecto cognitivo causado por la inclusión de información 3D. Los resultados han presentado una influencia notable de la ayuda 3D en la mejora de la habilidad, así como un aumento de la sensación de presencia.
82

Estudio del efecto de la degeneración de los fotorreceptores en la población de células ganglionares de la retina

García Ayuso, Diego 17 June 2011 (has links)
En esta tesis estudiamos el efecto de la degeneración de los fotorreceptores en la población de células ganglionares de la retina. Utilizamos dos modelos animales de degeneración retiniana: uno inducido por fototoxicidad y otro hereditario (rata transgénica P23H) que producen una pérdida progresiva de fotorreceptores. A los 6 meses tras la fotoexposición o tras el nacimiento, según el modelo estudiado, se observa la aparición de complejos vasculares subretinianos que están conectados con los vasos de retina. A continuación, los vasos de la retina más interna sufren un desplazamiento y, en su trayectoria, estrangulan los haces axonales de las células ganglionares, provocando la muerte de éstas. El desplazamiento vascular posiblemente se deba a la migración de las células del epitelio pigmentario hacia la retina interna utilizando la superficie de los vasos. En conclusión, la degeneración de los fotorreceptores causa la muerte de las células ganglionares de r etina independientemente de su etiología. / In this thesis we analyze the effect of photoreceptor degeneration on the retinal ganglion cell population. We use two different rat models of retinal degeneration, light-induced and inherited (transgenic P23H rat) in which there is a progressive loss of photoreceptors. Six months after light exposure or after birth, depending on the model studied, subretinal vascular complexes connected to the retinal vessels start to appear. Next, the inner retinal vessels are displaced towards the subretinal vessels and in their trajectory strangulate the retinal ganglion cell axons causing their death. Vascular displacement may be due to the migration over the vessels surface and towards the inner retina of retinal pigment epithelium cells. In conclusion, photoreceptor degeneration causes retinal ganglion cell death regardless of its etiology.
83

The Encoding and decoding of complex visual stimuli : a neural model to optimize and read out a temporal population code

Luvizotto, André Luiz 17 September 2012 (has links)
The mammalian visual system has a remarkable capacity of processing a large amount of information within milliseconds under widely varying conditions into invariant representations. Recently a model of the primary visual system exploited the unique feature of dense local excitatory connectivity of the neo-cortex to match these criteria. The model rapidly generates invariant representations integrating the activity of spatially distributed modeled neurons into a so-called Temporal Population Code (TPC). In this thesis, we first investigate an issue that has persisted TPC since its introduction: to extend the concept to a biologically compatible readout stage. We propose a novel neural readout circuit based on wavelet transform that decodes the TPC over different frequency bands. We show that, in comparison with pure linear readouts used previously, the proposed system provides a robust, fast and highly compact representation of visual input. We then generalized this optimized encoding-decoding paradigm to deal with a number of robotics application in real-world tasks to investigate its robustness. Our results show that complex stimuli such as human faces, hand gestures and environmental cues can be reliably encoded by TPC which provides a powerful biologically plausible framework for real-time object recognition. In addition, our results suggest that the representation of sensory input can be built into a spatial-temporal code interpreted and parsed in series of wavelet like components by higher visual areas. / El sistema visual dels mamífers té una remarcable capacitat per processar informació en intervals de temps de mili-segons sota condicions molt variables i adquirir representacions invariants d'aquesta informació. Recentment un model del còrtex primari visual explota les característiques d'alta connectivitat excitatriu local del neocortex per modelar aquestes capacitats. El model integra ràpidament l'activitat repartida espaialment de les neurones i genera codificacions invariants que s'anomenen Temporal Population Codes (TPC). Aquí investiguem una qüestió que ha persistit des de la introducció del TPC: estudiar un procés biològicament possible capaç de fer la lectura d'aquestes codificacions. Nosaltres proposem un nou circuit neuronal de lectura basat en la Wavelet Transform que decodifica la senyal TPC en diferents intervals de freqüència. Monstrem que, comparat amb lectures purament lineals utilitzades previament, el sistema proposat proporciona una representació robusta, ràpida i compacta de l'entrada visual. També presentem una generalització d'aquest paradigma de codificació-decodificació optimitzat que apliquem a diferents tasques de visió per computador i a la visió dins del context de la robòtica. Els resultats del nostre estudi suggereixen que la representació d'escenes visuals complexes, com cares humanes, gestos amb les mans i senyals del medi ambient podrien ser codificades pel TPC el qual es pot considerar un poderós marc biològic per reconeixement d'objectes en temps real. A més a més, els nostres resultats suggereixen que la representació de l'entrada sensorial pot ser integrada en un codi espai-temporal interpretat i analitzat en una serie de components Wavelet per àrees visuals superiors.
84

Desarrollo de Sistemas de Visión en Fútbol Robótico

Dodds Rojas, Ricardo January 2009 (has links)
Ingeniero Civil Electricista / Esta memoria tiene como objetivo diseñar e implementar algoritmos de visión computacional, en diferentes etapas del sistema de visión de un robot que juega fútbol robótico. Dado que por lo general un robot tiene una capacidad de procesamiento limitada, el principal objetivo de esta memoria es mejorar la eficiencia del sistema completo, sin afectar su rendimiento. Las mejoras propuestas consisten básicamente en tres etapas: adaptación del sistema de visión al uso de un lente gran angular, implementación de un perceptor visual del arco de fútbol basado en un clasificador construido a partir de una red neuronal y el diseño de un sistema de procesamiento de imágenes multi-resolución. Para adaptar el sistema de visión al uso de un lente gran angular se utiliza un mapeo desde el espacio de la imagen con gran angular a un espacio que asume proyección plana en la imagen, basado en una transformación polinomial. Los parámetros de este mapeo corresponden a los coeficientes del polinomio de transformación y son determinados a partir de un algoritmo de optimización PSO (Particle Swarm Optimization), que utiliza como función objetivo una medida de distorsión de la imagen mapeada. Para el perceptor del arco se utilizan en una primera etapa una serie de reglas binarias para descartar rápidamente percepciones erróneas. Posteriormente se extraen características de los candidatos que se utilizan como entrada a un clasificador basado en una red neuronal del tipo MLP (Multi Layer Perceptron). Así los candidatos reciben un puntaje de acuerdo a sus características y se escoge el mejor. En el sistema de procesamiento multi-resolución se toma en cuenta el hecho que los objetos más lejanos, y que por lo tanto se ven más pequeños en la imagen, se encuentran cerca del horizonte. A partir de esta premisa se realiza un procesamiento más fino de la imagen en sectores cercanos al horizonte. Dada la naturaleza del trabajo se utilizan distintas herramientas para medir el desempeño de cada parte. Para el caso del mapeo de la imagen se utiliza el error máximo de alineamiento en la imagen resultante de puntos co-lineales en el mundo real, medido a través de la norma de los residuos arrojados por un ajuste de mínimos cuadrados, obteniéndose un error de ajuste máximo de 1,02. Mientras que para medir el rendimiento del perceptor basado en un clasificador se miden: tasa de detecciones correctas y tasa de falsos positivos, encontrándose un 96,5 y 1,5 [%] respectivamente. Finalmente el resultado del algoritmo multi-resolución se evalúa a través del cálculo del máximo número de pixeles recorridos al procesar una imagen, con lo cual se determina que se analizan en el peor de los casos, menos de un tercio de los pixeles que usando el sistema anterior. Los resultados obtenidos muestran que los métodos propuestos tienen un buen desempeño. En cada etapa se aprecia la ventaja de su uso, por lo que se considera el trabajo realizado como una mejora integral al sistema de visión del equipo de fútbol robótico. No obstante, no deja de ser interesante buscar mejores aproximaciones a cada problema y al sistema completo.
85

Análisis Costo Beneficio de la Implementación del Modelo de Black-Litterman para Asignación de Activos en Portafolios de Inversión

Gálvez Pinto, Rocío Magdalena January 2008 (has links)
En esta memoria de título se presentan los resultados de la comparación de dos modelos de asignación de activos en portafolios de inversión. El primero de ellos corresponde a la forma tradicional de estructurar portafolios, el modelo de Markowitz, que es contrastado con el modelo de Black-Litterman, que propone la inclusión de visiones del inversionista al momento de estimar los retornos esperados para los activos involucrados. Este trabajo responde a la necesidad de asignar activos en portafolios, consiguiendo máxima rentabilidad para el nivel de riesgo escogido. El Modelo de Markowitz presenta inconvenientes como portafolios altamente concentrados, que no recogen el punto de vista del inversionista y poca objetividad al momento de estimar rendimientos para los activos involucrados. Cómo solución se propone el modelo de Black-Litterman, que desplaza la frontera eficiente al realizar una nueva optimización riesgo-retorno, consiguiendo carteras menos riesgosas y coherentes con la intuición previa del inversionista. Se propone como objetivo general de este trabajo: Analizar el costo y beneficio de la implementación del modelo de Black-Litterman en portafolios de inversión. Para esto se presentan objetivos específicos que apuntan a comparar carteras eficientes de inversión, determinando el costo de implementar dichos modelos, determinar el nivel de confianza de algunos emisores de recomendaciones bursátiles y analizar la aplicabilidad de estos modelos en casos reales. La comparación entre modelos se realiza de modo ínter temporal, es decir se obtienen fronteras eficientes de inversión en determinados momentos de tiempo. Dichas fronteras se comparan, observando cual entrega mejores oportunidades de inversión. De cada frontera se extrae el portafolio de mínima varianza, riesgo 4 y 5%. Con eso se verifica su rentabilidad real versus su rentabilidad esperada, tanto parcialmente como en la serie acumulada de todo el periodo en estudio. En lo que se refiere a las fronteras eficientes a comparar, se recolectan datos sobre los precios de cierre semanales de las acciones de las 19 empresas que compusieron el índice nacional IPSA durante el 2007, con 100% de presencia bursátil. Con ellos se calcula niveles de riesgo (betas) para obtener tasas de retorno esperado sobre el patrimonio (CAPM), covarianzas entre empresas, y otros procedimientos que permiten utilizar procedimientos de optimización. Como resultados principales se encontró que el rendimiento acumulado del periodo es mayor en el modelo de Black-Litterman, para todos los niveles de riesgo estudiados. A su vez, las tendencias de los retornos son crecientes, pero las pendientes aumentan con el riesgo en el caso de B-L, mientras que disminuyen con Markowitz. Por tanto, en la medida que más sea el inversionista amante al riesgo, más conveniente resulta la implementación del modelo de BlackLitterman. Para el caso de los portafolios de mínimo riesgo, los resultados son similares por lo que pareciera no justificarse el costo de la implementación de un modelo de cómo éste.
86

Variación de la función visual y calidad de vida en pacientes con cataratas antes y después de la Facoemulsificación con colocación de lente intraocular en Lima-Perú

Luján Paredes, Silvio Augusto 20 January 2016 (has links)
Objetivo: Determinar la variación de la función visual y calidad de vida en pacientes con cataratas antes y después de la facoemulsificación más colocación de LIO. Métodos: Estudio longitudinal en pacientes mayores de 50 años, intervenidos de catarata con la cirugía de facoemulsificación con colocación de LIO. Se evaluó la variación de la función visual con el VFQ 25 y la calidad de vida con el QOL.Q 40 antes de la intervención quirúrgica y luego de 3 meses. Resultados: La edad media de los pacientes fue de 74 años ± 7,4, 55%, de los cuales 37,5% tuvieron una cirugía previa de cataratas. Se evidenció una variación favorable de la función visual en las subescalas de Salud general (p<0,001), Visión General (p< 0,001), Visión de cerca (p= <0,001), Visión de lejos (p< 0,001), Limitaciones (p= 0,001) y Visión Periférica (p< 0,001). La calidad de vida medida con el QOLQ.40, también presentó cambio favorable evidenciándose una diferencia significativa en la subescala de Satisfacción con un (p=0,0001.). Se calculó la correlación entre la variación de la función visual medida con el VFQ 25 y la variación del número de células endoteliales, hallando una mejora en la subescala de “Limitación” con un rho de Spearman de 0.3456. Conclusión: Los pacientes presentaron respuesta favorable a la intervención tanto a nivel clínico, observando un incremento de la agudeza visual, como en la función visual y calidad vida. Los cuestionarios de calidad de vida son adaptables a nuestra población, su uso permitirá una medición integral de los resultados de la cirugía. / Tesis
87

Validación de los analizadores visuales y determinación del síndrome visual informático en trabajadores de la función pública valenciana

Molina-Torres, María-José 07 July 2017 (has links)
Antecedentes: La expansión de las Tecnologías de la Información y de la Comunicación (TIC) ha traído como consecuencia un incremento del uso de Pantallas de Visualización de Datos (PVD) durante los últimos años en diferentes entornos, incluido el laboral. En los Servicios de Prevención de Riesgos Laborales, para la realización de la vigilancia de la salud visual de los trabajadores, se utilizan los analizadores visuales, que carecen de estudios actuales que determinen su validez. Además, según la literatura científica, en la mayoría de trabajadores usuarios de PVD es frecuente la sintomatología ocular y visual que engloba el Síndrome Visual Informático (SVI), existiendo diferencias en los estudios de prevalencia publicados. Objetivos: Los dos objetivos principales de esta tesis son: 1) Analizar la precisión diagnóstica de dos modelos actuales de analizadores visuales (Optec 6500 de Stereo Optical y Visiotest de Essilor) utilizados en la vigilancia de la salud visual de trabajadores usuarios de PVD (ESTUDIO I); 2) Determinar la prevalencia del Síndrome Visual Informático en trabajadores de la Administración Pública de la provincia de Alicante (ESTUDIO II). Metodología: Para responder a los objetivos planteados se llevaron a cabo dos estudios epidemiológicos de diseño trasversal realizados en trabajadores de la Administración Pública de la provincia de Alicante (España). Para el primer objetivo se seleccionaron trabajadores usuarios de ordenador de acudían a la revisión anual rutinaria del Servicio de Prevención de Riesgos Laborales de la Generalitat Valenciana, INVASSAT de Alicante (entre octubre y noviembre 2013). Participaron en el estudio 91 trabajadores de edad 50,2 ± 7,9 (media ± ds), de los cuales el 69,2% fueron mujeres y el 68% usuarios de ordenador de más de 4 horas al día. El examen visual incluyó las siguientes pruebas: Agudeza visual (AV) monocular y binocular de lejos, Foria Lateral (FL) de lejos y de cerca, AV estereoscópica y visión cromática, que fueron realizadas por una optometrista (gold standard). Se realizaron las mismas pruebas con los dos analizadores visuales (Optec 6500 y Visiotest). Se calculó sensibilidad, especificidad, valor predictivo positivo (VPP), valor predictivo negativo (VPN), tasa de falsos positivos y de falsos negativos. Para medir la concordancia entre cada analizador y el gold standard, así como entre los dos analizadores, se utilizó el coeficiente Kappa (ĸ). Para el segundo objetivo se incluyeron en el estudio todos los trabajadores que se encontraban en activo en el momento del estudio y con dirección de correo electrónico disponible en la Guía Prop (n=1.747). Se les invitó por correo electrónico y participaron 497 de edad 49,7 ± 8,4 (media ± ds), de los cuales el 60% fueron mujeres. Para la recogida de información se utilizó un instrumento online que incluía dos cuestionarios: a) Cuestionario de datos sociodemográficos, laborales, de exposición a PVD y de enfermedades oculares y crónicas; b) Cuestionario de Síndrome Visual Informático (CVS-Q). En lo que respecta al análisis estadístico se realizó una descripción de las variables categóricas mediante el cálculo de la frecuencia absoluta y porcentaje; se calcularon las prevalencias de presencia de SVI para cada una de las variables y su intervalo de confianza al 95%; se realizó un modelo de regresión Poisson para obtener razones de prevalencias de presencia de SVI crudas y ajustadas con sus respectivos intervalos de confianza al 95%, así como la creación de un índice de riesgo para ajustar las razones de prevalencia por el resto de variables. Resultados: En relación al primer objetivo la sensibilidad y especificidad para la AV monocular fue mayor del 80,0% para ambos analizadores; el VPP fue inferior al 25,0%. Sensibilidad y especificidad fueron más bajas para la AV estereoscópica (55,0%-70,0%), con VPP del 50,0% y VPN del 75,0% en los dos analizadores. Para la FL de lejos, sensibilidad y VPP fueron menores del 10% en ambos casos. Los resultados para la FL de cerca fueron diferentes: Optec 6500 tuvo mayor sensibilidad (43,5%), VPP (37,0%) y VPN (79,7%); mientras que Visiotest tuvo mayor especificidad (83,8%). Para la prueba de visión cromática, Visiotest obtuvo baja sensibilidad y VPP, y alta especificidad y VPN. En la tasa de falsos positivos, Visiotest tuvo valores más bajos a Optec 6500 en AV monocular, FL de cerca y AV estereoscópica. En la tasa de falsos negativos Visiotest tuvo valores más bajos a Optec 6500 en AV monocular y AV estereoscópica. La concordancia obtenida entre ambos analizadores y con el gold standard fue baja (κ <0,40) para todas las pruebas, excepto para la AV monocular y AV estereoscópica, con concordancia moderada entre analizadores. En lo que respecta al segundo objetivo los principales resultados muestran que la prevalencia del SVI en la población estudiada fue del 71% (IC95%: 66,8-75,0), encontrando diferencias estadísticamente significativas por sexo (p<0,001) y grupos de edad (p=0,040); siendo mayor en mujeres (77,5%; IC95%: 72,3-82,1) y en trabajadores con edades de 49 a 53 años (77,9%; IC95%: 68,7-85,4). Conforme aumenta el número de horas al día de uso de ordenador en el puesto de trabajo la prevalencia de SVI se incrementa (p=0,003), siendo del 100% (IC97,5%: 59,0-100,0) en el grupo que lo usa más de 8 horas/día. Existen diferencias estadísticamente significativas en relación a desde cuándo usan el ordenador en el puesto de trabajo (p=0,042) y a si realizan pausas pautadas (p=0,039), siendo el grupo con mayor prevalencia de SVI el que lo viene usando de 21 a 25 años (82,7%; IC95%: 72,7-90,2) y el que no realiza pausas (77,4%; IC95%: 71,1-82,8). Si existían problemas de salud, las mayores prevalencias fueron para el grupo de trabajadores con glaucoma (100,0%; IC97,5%: 75,3-100,0; p=0.024), ojo seco (98,4%; IC95%: 91,2-100,0; p<0,001) y enfermedades de salud mental (100,0%; IC97,5%: 83,2-100,0; p=0,002), siendo las diferencias en todos los casos significativas. Al ajustar por el índice de riesgo del SVI, estimado a partir del resto de variables, el grupo que presenta la asociación más alta son los de más de 8 horas (PRa=1,74; IC95%: 1,24-2,44; p=0,001). Conclusiones: Los elevados VPN obtenidos en este estudio confirman a estos analizadores como alternativa aceptable para su uso en la vigilancia de la salud visual de los trabajadores usuarios de PVD. La concordancia entre cada analizador y con el patrón de referencia es baja. En los trabajadores con baja prevalencia de pruebas alteradas, constituyen una buena aproximación para detectar alteraciones y de este modo solo referir al especialista pacientes con pruebas alteradas. La prevalencia total de SVI en los trabajadores de la Administración Pública de la provincia de Alicante es del 71%. Las prevalencias más altas de SVI se observan en las mujeres, trabajadores de más edad, en los trabajadores que utilizan el ordenador durante la jornada laboral más de 6 horas al día y en aquellos que no realizan pausas. Después de controlar por las características personales y laborales de los trabajadores, aquellos que están más de 8 horas al día usando el ordenador en el trabajo, comparando con los que están menos de 2 horas, son los que tienen más probabilidad de padecer este problema de salud.
88

Diagnóstico del modelo de gestión en una empresa de transporte de carga pesada por carretera / Diagnosis of the management model in a heavy load transportation company

Ceino Tantaleán, Ricardo, Escalante Flores, Phiera Antonia, Mendoza Garragate, Carlos Antonio, Zúñiga Bardales, Raúl Arturo 31 August 2020 (has links)
Con el presente trabajo, se ha elaborado un “DIAGNÓSTICO DEL MODELO DE GESTIÓN EN UNA EMPRESA DE TRANSPORTE DE CARGA PESADA POR CARRETERA”; al respecto, hemos tenido limitantes como el acceso a determinada información de la compañía debido a sus políticas de seguridad así como la limitación de traslado y comunicación generada por la pandemia COVID-19 que ha afectado sustancialmente a todo el país; con todo ello, hemos culminado con éxito, logrando el objetivo de tener un diagnóstico de calidad que permita mejorar la gestión de la compañía quedando solo en su decisión el implementarla. Luego del análisis realizado, proponemos implementar un modelo de gestión EFQM que es acorde a la realidad actual de la compañía. De que asegurarán obtener resultados rentables y sostenibles para la organización. Asimismo, con el compromiso de los colaboradores, se logrará una cultura organizacional orientada a una visión estratégica que contribuya al desarrollo de la empresa y de la sociedad. / This work is about a "DIAGNOSIS OF THE MANAGEMENT MODEL IN A HEAVY LOAD TRANSPORTATION COMPANY". It has been prepared although, we have had limitations such as access to certain company information due to its security policies as well as the limitation communication visits due to the COVID-19 pandemic that has substantially affected the entire country. Despite of all this, we have successfully achieved the objective of having a quality diagnosis that could allow to make some improvements on the management of the company. The implementation of the improvements is now up to the company. After the analysis carried out, our proposal is to implement an EFQM management model that is consistent with the current reality of the company. Some improvements have been proposed in order to ensure profitable and sustainable results for the organization. Likewise, with the commitment of all employees, an organizational culture oriented towards a strategic vision that contributes to the development of the company and society will be achieved. / Trabajo de investigación
89

Desarrollo de una aplicación de visión artificial para escanear objetos 3D con cámaras de fotos

Sumoso Vicuña, Ernie Ludwick 15 March 2022 (has links)
Los métodos tradicionales de escaneo 3D requieren de un contacto físico directo con los objetos a escanear. En algunos casos demandan incluso la rotación y movimiento constante de estos, lo cual representa un riesgo para objetos frágiles como las piezas arqueológicas. Si ignoramos este factor de riesgo podemos causar daños irreparables y frustrar el proceso de documentación de estas. Por otro lado, existen técnicas de escaneo 3D sin contacto - pasivas que no requieren de una interacción directa con los objetos. Es por ello que se propone desarrollar un software que permita escanear piezas arqueológicas usando las técnicas de reconstrucción tridimensional mediante conceptos de visión artificial, aprendizaje de máquina, data augmentation y mallas poligonales. Para lograr nuestro cometido se parte de un set inicial de 962 huacos peruanos pre escaneados proporcionados por el grupo de Inteligencia Artificial PUCP. Con este conjunto de datos se genera una extenso volumen de imágenes los cuales son procesados y utilizados para el entrenamiento de un modelo de aprendizaje de máquina. Segundo, al obtener unos primeros resultados se propone llevar a cabo la técnica de data augmentation para extender nuestra data disponible, normalizarla, segmentarla y con ello entrenar múltiples modelos bajo 2 experimentos definidos. Todo ello nos permite mejorar los resultados de reconstrucción de objetos 3D considerando la alta variabilidad de huacos peruanos. Finalmente se implementa una interfaz gráfica la cual permite al usuario interactuar con el proyecto desarrollado. En conclusión, se logra desarrollar una herramienta de software que nos permite cargar videograbaciones reales de piezas arqueológicas (bajo ciertos parámetros establecidos), procesar los archivos, visualizar y descargar los resultados obtenidos como mallas poligonales (reconstrucciones 3D almacenados en el computador).
90

Arquitectura de visión y aprendizaje para el reconocimiento de actividades de grupos usando descriptores de movimiento

Borja, Luis Felipe 25 June 2020 (has links)
Según los últimos censos, nuestro planeta tiene cerca de 7.000 millones de habitantes principalmente concentrados en zonas urbanas. Consecuencia de esto las multitudes de personas se congregan en estos sitios, complicando la tarea de supervisión y vigilancia para mantener la seguridad pública en calles, plazas, avenidas y demás. Esto motiva el estudio y mejora de métodos de análisis automático del comportamiento humano. A esta área de investigación se le denomina Análisis del Comportamiento Humano, o Reconocimiento de Actividades Humanas. Gran parte de los trabajos dedicados a este problema se basan en técnicas de visión por computador junto con algoritmos de Machine Learning y, más recientemente, en Deep Learning. En este proyecto de tesis, se ha hecho inicialmente una revisión del estado del arte respecto al tema del análisis y reconocimiento de actividades y comportamientos humanos. En este estudio se han analizado los principales trabajos de machine learning tradicional y deep learning para el tema de la tesis, así como los principales datasets. Se ha visto que no existe un estándar o arquitectura que proponga solución genérica. Por otro lado, la mayoría de trabajos se centran en un determinado rango de individuos, habiendo propuestas para personas individuales, para pequeños grupos, grandes grupos o multitudes. Además, no existe un consenso en la nomenclatura respecto a los grados de complejidad, niveles de comportamiento o, como aquí se denomina, nivel de semántica de las acciones que se realizan. Tras este estudio, se ha propuesto una taxonomía bidimensional que permite clasificar las propuestas en el espacio "número de personas/nivel de semántica", siendo más descriptivo respecto al actual estado del arte y permitiendo ver donde se concentran mayormente los trabajos y cuales los retos aun no resueltos. Tras el estudio del estado del arte, en este trabajo se ha propuesto una arquitectura de visión y aprendizaje para reconocer actividades de grupos usando descriptores de movimiento. Se compone de dos bloques principales, el descriptor de movimiento y el clasificador de actividad. Las arquitecturas de red profunda que se estudian actualmente tienen la bondad de, dados unos datos en crudo (imágenes, secuencias, etc.) tratarlos internamente de forma que devuelvan un resultado, sin necesidad de pre-procesarlos primero. Sin embargo, esto los hace dependientes de los datos de entrenamiento y necesitan grandes datasets para que el entrenamiento sea suficiente. El hecho de introducir un descriptor hace que el espacio de búsqueda se reduzca, y por lo tanto se pueda entrenar con menor número de datos, y además, se pueda independizar la escena (número de individuos, localización de la actividad en el espacio, etc.) del comportamiento en sí. Para el descriptor de la arquitectura se propone en esta tesis como una variante del descriptor Activity Descriptor Vector (ADV), que se denomina D-ADV, y que obtiene dos imágenes del movimiento local acumulado, una UDF (de los movimientos arriba, Up, abajo, Down, y Frecuencia) y otra LRF (de los movimientos Left, izquierda, Right, derecha y Frecuencia). Por otro lado, como instancias de la arquitectura haciendo uso del D-ADV, se proponen el D-ADV-MultiClass para clasificación de múltiples clases. Esta propuesta se basa en utilizar los dos streams UDF y LRF, junto con una red profunda y transfer learning, para reconocer la actividad del grupo. Además, se ha propuesto otra instancia, llamada D-ADV-OneClass, que añade a los dos streams anteriores, otro con información de contexto. Esta última instancia da solución a problemas en los que solo se conoce una clase durante el entrenamiento, y por lo tanto se utilizan técnicas de one-class classification. En la experimentación se ha validado la arquitectura con las dos instancias D-ADV-MultiClass y D-ADV-OneClass utilizando los datasets públicos ampliamente conocidos, como son BEHAVE, INRIA y CAVIAR para multi-class, y para one-class los datasets Ped 1, Ped 2 y Avenue. Los resultados experimentales muestran la capacidad de la arquitectura para clasificar las actividades de los grupos presentados en los datasets. Además, se demuestra que la arquitectura es capaz de tener buenos resultados utilizando datasets con poca cantidad de datos. En este caso, no a partir de la imagen sino de la representación del movimiento. Por último se plantean como trabajos futuros experimentar con otros datasets de mayor tamaño o con otro tipo de datos (peleas callejeras y en rings de boxeo para ver como afecta el contexto en estas situaciones). A medio o largo plazo se realizarán mejoras aumentando y comprobando otras instancias de la arquitectura utilizando múltiples streams de entrada que puedan permitir detectar otros comportamientos.

Page generated in 0.0537 seconds