• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 8
  • Tagged with
  • 141
  • 141
  • 65
  • 65
  • 65
  • 65
  • 65
  • 62
  • 60
  • 38
  • 36
  • 34
  • 33
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Análisis, diseño e implementación de mecanismos lógicos de soporte de elementos y gestión de secuencia de un videojuego de rol y estrategia en tiempo real

Montano Vega, Piero David 15 October 2014 (has links)
El presente proyecto de fin de carrera tiene como fin la implementación de las reglas y la lógica de control de un videojuego que permite contar una historia a través de sus personajes. Se exploran características de juego de rol (RPG), centrándose en el control y la evolución de un personaje a través del tiempo en un contexto narrativo; y características de un juego de estrategia real (RTS), presentando un entorno donde se enfatizan desafíos estratégicos, tácticos y logísticos. En el primer capítulo se presenta la problemática y el contexto que sugiere la implementación de la lógica de control de un videojuego de las características señaladas en el primer párrafo. Además se propone una solución luego de presentar los conceptos principales que faciliten la comprensión del presente documento y un análisis cronológico de la evolución de los elementos de juego de rol y estrategia en tiempo real a través de los juegos más representativos de ambos géneros según el autor. En el segundo capítulo se realiza un análisis de viabilidad del proyecto y se identifican los requerimientos de la solución propuesta, según la metodología seleccionada, que sirven para presentar en el tercer capítulo el diseño de la solución. El diseño comprende la arquitectura de software y la exploración de cada una de las componentes que la integran y finalmente, el diseño del sistema de directorios y eventos que configuran el videojuego. En el cuarto capítulo se presentan las herramientas, tecnología y estándares de programación usadas para la construcción de la solución. Además se proponen las pruebas automatizadas y las pruebas de regresión para la verificación de las exigencias del producto. Finalmente en el quinto capítulo se presentan las observaciones del proyecto donde se evalúa la escalabilidad de la solución y las recomendaciones para la implementación de nuevas funcionalidades en trabajos futuros. Las conclusiones finales son expuestas en el contexto de los resultados esperados y los objetivos planteados al inicio del proyecto. / Tesis
12

Microscopio automatizado: conteo de bacilos de tuberculosis

Sato Yamada, Juan José 07 November 2013 (has links)
La prueba baciloscópica de la tuberculosis es la forma de diagnóstico microscópico más utilizado para combatir la enfermedad en los países pobres o subdesarrollados debido a su bajo costo y rapidez. Sin embargo, la realización de esta prueba es un proceso tedioso, extenuante y requiere de un especialista debidamente capacitado. Por ello, en el presente trabajo se presenta un algoritmo automatizado para la detección y conteo de bacilos de tuberculosis presentes en imágenes de muestras de esputo mediante la utilización de técnicas de procesamiento de imágenes digitales. Se analizaron diferentes espacios de color para hallar aquella capa o canal de color que posea un mayor contraste entre las intensidades de color de los píxeles de los bacilos y del fondo. Para esto se hizo un análisis de los histogramas mediante las gráficas de las características operativas del receptor. Para la segmentación de los bacilos, el presente trabajo desarrolló una técnica de umbralización adaptativa utilizando el método de Otsu para hallar el óptimo valor umbral. Luego, los objetos detectados son clasificados como bacilos o no-bacilos mediante un árbol de clasificación utilizando características de área y excentricidad. El algoritmo desarrollado presenta niveles de sensibilidad, especificidad y exactitud mayores a 90% y tiene un tiempo de ejecución de aproximadamente 9 segundos por campo (15 minutos para 100 campos). Cabe resaltar que, a diferencia de investigaciones previas, la presente tesis buscó desarrollar un algoritmo tanto de segmentación de los bacilos, como de su clasificación, e implementarlo en un microscopio automatizado para el diagnóstico automático de la enfermedad en tiempo real. Con esta finalidad, se implementó el algoritmo desarrollado con el programa Matlab® en un lenguaje de programación C++, obteniendo un programa capaz de interactuar con otros programas como el del control de la cámara digital. Se espera que este trabajo sirva de base para próximos estudios orientados a automatizar el proceso de diagnóstico de la enfermedad de una manera más óptima y veloz. / Tesis
13

Análisis de sensibilidad de los parámetros psico-físicos del modelo de seguimiento vehicular de VISSIM 6

Guisado Rojas, Cynthia Alessandra 15 February 2017 (has links)
Para la evaluación de medidas en la gestión de tráfico y la planificación de infraestructura vial en la ciudad de Lima, como intersecciones, es común aplicar microsimulación. Para ello se tiene como fundamento la teoría de Seguimiento Vehicular de Wiedemann implementado en el software PTV VISSIM, en el cual se emplean los parámetros psico-físicos, distancia estática promedio (ax), distancia de seguridad aditiva (bxadd) y distancia de seguridad multiplicativa (bxmult), que describen el comportamiento de los conductores de vehículos (PTV VISSIM, 2011). En la presente investigación se determina la sensibilidad de dichos parámetros en la intersección de la av. Bolívar, av. José María Egúsquiza (ex - av. Córdova) y calle Bernardo Hoggins (ex - calle Andalucía), ubicados en la ciudad de Lima. Conocer la sensibilidad de los parámetros en mención reduce de manera significativa el tiempo de modelado del dispositivo vial que se desea simular. De manera específica, se reduce el tiempo de calibración y validación, a través de la disminución de la incertidumbre de los valores de los parámetros, producto de un análisis estadístico. Por lo que se contribuye con las futuras simulaciones microscópicas de la infraestructura vial urbana y local, que se realizan utilizando el software Vissim 6. Lo resultados de la presente investigación revelan que el parámetro de distancia estática promedio, “ax”, es el parámetro con mayor sensibilidad. Esto debido a que cuando se realizó la prueba de Kruskal Wallis utilizando el software Minitab, se observó que los valores de la velocidad promedio de la intersección al variar el parámetro “ax” producen un valor de H=19.51, el cual es mayor que . Por lo que se recomienda emplear el valor de “1” debido a que la agresividad del conductor limeño produce una distancia menor entre vehículos. / Tesis
14

Rediseño de un preparador automático de muestras de esputo para el diagnóstico de la tuberculosis

David Ochoa, Juan Diego 18 February 2017 (has links)
La Tuberculosis es una enfermedad infecto-contagiosa que ataca principalmente a los pulmones, y, en otras ocasiones, a otras partes del cuerpo humano [3]. La bacteria que causa la tuberculosis se llama el bacilo de Koch (Mycobacterium tuberculosis) [3]. Actualmente, la muerte de tres millones de personas en el mundo por año es causada por la tuberculosis [3]. Anteriormente, en la PUCP se realizó el diseño de un preparador automático de muestras de esputo para el diagnóstico de la tuberculosis utilizando la tinción de Ziehl Neelsen [10]. El objetivo del presente trabajo de tesis es obtener un nuevo diseño de un preparador automático de muestras de esputo para realizar mejoras respecto al anterior diseño. Para llevar a cabo dicho proyecto, primero se diseñó la estructura mecánica. En esa parte se ha seleccionado las diversas partes mecánicas necesarias, dependiendo de los requerimientos establecidos. Luego, teniendo el diseño de la estructura mecánica, se ha realizado el diseño electrónico de todo el proyecto (sensores, potencia, excitadores, indicadores, pulsadores, microcontrolador, fuente de alimentación), el cual cumplen con los requerimientos establecidos. Teniendo el diseño electrónico, se ha realizado la programación para el control de Ziehl Neelsen, el cual se utilizó el software Atmel Studio 6.2. Se logró simular en Proteus el sensado de los reactivos y el proceso de Ziehl Neelsen. Asimismo, se realizaron varios circuitos de prueba. Con el trabajo realizado, el adecuado diseño mecánico permitió reducir las partes movibles al mínimo, y se logró obtener un aparato de mejor mantenimiento y limpieza. Además, se obtuvo un control adecuado sobre el encendido y apagado del calentador de muestras. / Tesis
15

Propuesta de técnica para la estimación de densidad mamaria en mamografías digitales utilizando técnicas de segmentación y estimadores globales

Segura del Río, César Whesly 29 October 2014 (has links)
Anualmente un millón y medio de nuevos casos de cáncer de mama son diagnosticados alrededor del mundo. Por tal motivo, se han establecido estrategias de despistaje temprano de cáncer de mama que utilicen a la mamografía como principal herramienta. Adicionalmente, se han evaluado diversas variables clínicas que han sido capaces de estimar el riesgo a desarrollar esta neoplasia. Entre estas variables se encuentra la densidad mamaria o tejido denso catalogado como principal indicador del cáncer de mama. La densidad mamaria o tejido denso de la mama incrementa de 3.5 a 5 veces el riesgo de adquirir cáncer de mama. La mamografía es una imagen formada a partir del principio de rayos X, describe a los tejidos de la mama y permite la evaluación del estado clínico de los pacientes. Se utilizan dos acercamientos para su estudio, estos consisten en el análisis cualitativo y cuantitativo. En el primero se utiliza el criterio de la observación del médico para dar su juicio de cada caso. En el segundo se procesan digitalmente mamografías y se les aplican técnicas de segmentación, luego se utilizan métodos cuantificables como estimadores globales. La segmentación consiste en subdividir una mamografía en los tejidos que la constituyen mientras que los estimadores globales son algoritmos que se aplican a la imagen completa y brindan indicadores cuantitativos de esta. El objetivo de la presente tesis es realizar una comparación entre el tejido denso obtenido mediante los técnicas de segmentación de Bden, bimodal, C-medias difusas y Otsu con el establecido por un patrón de oro (segmentación manual de experto). A partir de las comparaciones, se propondrá un algoritmo de segmentación validado en base a estimadores globales. Para alcanzar dicho objetivo, se cumplirán los siguientes objetivos específicos: implementación de técnicas de segmentación de Bden, bimodal, C-medias difusas y Otsu para calcular el tejido denso; implementación de estimadores globales intersección sobre unión, índice de similitud estructural (SSIM) y norma L2; comparación cuantitativa del tejido denso entre mamografías segmentadas y mamografías del patrón de oro; implementación de propuesta de técnica de segmentación y cálculo de tejido denso de la mama. Se ha encontrado que la propuesta de técnica de segmentación implementada para el cálculo de tejido denso es superior a las demás técnicas en base a estimadores globales. La técnica propuesta también demuestra un mayor grado de correlación con el tejido denso calculado por los médicos que las segmentaciónes de Bden, bimodal, C-medias difusas y Otsu. Se ha encontrado que en base a los estimadores globales de intersección sobre unión y SSIM la técnica de segmentación propuesta presenta mejores resultados que las técnicas implementadas de Bden, bimodal, C-medias difusas y Otsu. El coeficiente de Pearson es el mejor indicador del grado de correlación que existe entre los porcentajes de tejido denso calculado por los médicos y la técnica propuesta que con el calculado por las demás técnicas. / Tesis
16

Verificación del correcto empaquetado de cápsulas y pastillas en planchas tipo blíster, por medio del análisis de imágenes

Huamantinco Liberato, Eduardo 19 July 2011 (has links)
Esta tesis tiene como objetivo el desarrollo de un método eficiente para la detección de errores en la producción de blister, este método dará sustento a un sistema de producción, que permita eliminar, o reducir significativamente, los costos generados por los errores que se analizan en el presente trabajo. Este sistema estará basado en el método por análisis de imágenes digitales, por lo cual se tendrá en cuenta el diseño de un modulo de adquisición de señales digitales, y el consecuente software que permitirá procesar los datos que de esta manera se adquieren. Las instrucciones para establecer el método y los objetivos perseguidos nos proporciona una herramienta eficaz cuya aplicación práctica comprende el ajuste del mismo para obtener mejores resultados, por lo cual se estableció lo siguiente: · La situación actual del empaquetamiento de píldoras y pastillas, que comprende el análisis de los factores y variables, así como los procesos que actualmente se realizan, lo que origina la declaración del marco problemático del empaquetado tipo blister. · El empaquetado de las pastillas y píldoras, así como las técnicas utilizadas para su verificación. Se establece también un modelo teórico basado en definiciones operativas e indicadores cualitativos y cuantitativos. · Para la detección de los blister corf deficiencias se ha considerado el levantamiento de datos, fijando los fundamentos del algoritmo para esta detección, proceso al cual se llega como consecuencia de la metodología de la investigación aplicada. · Finalmente se evalúa el modelo de verificación que propugna esta tesis, analizando los resultados para diferentes situaciones en que se aplica el algoritmo. / Tesis
17

Desarrollo de un programa para la proyección cónica de figuras geométricas simples en R4

Torres Sovero, Roberto Javier 13 June 2011 (has links)
El presente trabajo de tesis tiene como principal objetivo hacer una extensión de la proyección cónica a R4 implementando un visualizador para gráficos en cuatro dimensiones que muestre la validez de la propuesta. Geométricamente, la proyección cónica puede interpretarse como la intersección de un cono con un plano. Partiendo de que ambas figuras geométricas pueden ser descritas por ecuaciones vectoriales (que no dependen del número de componentes de dichos vectores), la presente tesis hace un análisis de la proyección cónica en R4, intenta la generalización a Rn de algunos conceptos geométricos utilizados y esboza un diseño de software que permita reutilizar las principales herramientas y buenas prácticas de programación de gráficos en 3D. Será necesaria la generalización a R4 (y posteriormente a Rn) de algunas figuras geométricas simples como cubos, conos, esferas y planos, no sólo para la construcción de la proyección en sí (a partir de un cono y un plano), sino también para contar con un conjunto de figuras geométricas a dibujar. En una arquitectura orientada objetos como la propuesta, esto también implica la necesidad de un diagrama de clases de estas figuras geométricas y de un pipeline para el proceso de creación, transformación y proyección de las mismas. Finalmente, en R4, una clase cámara se encargará de realizar la proyección utilizando transformaciones con matrices y vectores de orden 4, restringiendo la proyección al rango visible de la cámara. Dándole al usuario la posibilidad de mover la cámara en R4 será posible apreciar, en tiempo real, los resultados de las hipótesis desarrolladas en el presente trabajo. / Tesis
18

Diseño de un algoritmo para rendering eficiente de estructuras proteicas de gran escala

Moreno Valles, Fernando Antonio 19 November 2014 (has links)
El software de gráficos por computadora en 3D de hoy en día nos da la capacidad de modelar y visualizar objetos en situaciones o tamaños que antes no habría sido posible, incluso nos dan la capacidad de que la visualización de estos objetos sea generada en tiempo real lo que otorga la posibilidad de crear aplicaciones que hagan uso de esta capacidad para agregar interactividad con los objetos modelados. Es muy importante la capacidad de poder dotar al usuario de una capacidad de interactividad con el gráfico generado, pero esto no se logra si es que el tiempo de respuesta de la aplicación es muy grande, por ejemplo una consola de videojuegos exigen como mínimo 30fps (cuadros por segundo) un valor menor ocasiona que los movimientos no fueran fluidos y se pierda la sensación de movimiento. Esto hace que la experiencia de usuario fluida sea una de las metas principales del rendering interactivo. Uno de los mayores problemas que se encuentran en esta área es el de visualizar gran cantidad de polígonos, debido a limitaciones de memoria o capacidad de procesamiento, mientras mayor sea la cantidad de polígonos que se desea dibujar en pantalla, mayor será el tiempo de procesamiento que será necesario para generar las imágenes. Una aplicación en particular es el de visualización de la estructura de proteínas. Existen proteínas que poseen una gran estructura, por la cantidad de polígonos que se requieren para representar todos los elementos y conexiones que poseen estas moléculas y adicionalmente la necesidad de visualizar grandes cantidades de moléculas simultáneamente, ocasiona que se disminuya el rendimiento y la interactividad al momento de la visualización. El presente proyecto plantea utilizar una estructura algorítmica para realizar rendering eficiente de gran cantidad de proteínas haciendo uso de un visualizador 3D, que muestre la estructura tridimensional de estas y permita la interacción en tiempo real con el modelo. La estructura propuesta en este proyecto hace uso de la aceleración por hardware presente en las tarjetas gráficas modernas a través de un API de generación de gráficos en tiempo real que es OpenGL con el cual se aplican optimizaciones que aprovechan la estructura planteada. Para que el proceso de renderizado sea más veloz, se mantiene un número bajo de polígonos en los modelos. Debido a que los elementos son repetitivos (esferas y cilindros) se reutiliza la geometría de estos elementos haciendo uso de una estructura como el Scene Graph de modo que el uso de memoria sea menor y de otra estructura como el Octree que permite discriminar los elementos que deben ser procesados durante el rendering. Combinando todo lo mencionado anteriormente, la estructura propuesta permite que se visualicen proteínas de gran estructura o gran cantidad de estas, manteniendo el grado necesario de interactividad para facilitar su estudio así como también manteniendo un aspecto estético que permita reconocer los elementos sin reducir el rendimiento. / Tesis
19

Micro-simulación intermodal en la ciudad del Cusco empleando los software Vissim 8 y Viswalk 8

Álvarez Vargas, Jordy Wilber 15 May 2017 (has links)
El proyecto de ingeniería a desarrollar consta del estudio de una intersección ubicada en la ciudad de Cusco entre los distritos de Wanchaq y Cusco Cercado con el fin de evaluar las condiciones de los usuarios dentro de la misma. La evaluación se realizará mediante un modelo microscópico de tráfico (intersección), para luego presentar propuestas de mejoras a la situación inicial. El análisis se realizará a través de los softwares computacionales Vissim 8.0 y Viswalk 8.0. Estos programas son capaces de simular el tráfico vehicular y peatonal de una zona de interés específico basándose en los datos recolectados en campo (flujo vehicular, flujo peatonal, ciclos de semáforos, geometría, etc.). Para llevar a cabo este modelamiento, se procede a recrear la intersección virtualmente en los programasmencionados con todos los datos obtenidos en campo. Para conseguir la mayor similitud posible a la realidad, el modelo debe ser calibrado una vez terminado el procesamiento de datos. Esta calibración consta de ajustes numéricos entre la realidad y el modelo. En el caso de este estudio, se tomará en cuenta como parámetros de evaluación las longitudes de cola, la demora promedio y la velocidad promedio. Posteriormente, se procede a la validación del modelo, para lo cual se cambian los datos iniciales por nuevos datos de campo. Una vez terminado el modelo se procede a evaluar los parámetros de eficiencia y se propondrán alternativas según los resultados obtenidos. Estas pueden ser variaciones en términos de ciclos del semáforo hasta un rediseño vial si así ameritara el caso. En este proyecto, se plantearon tres propuestas con la finalidad de mejorar la situación actual del tráfico peatonal y vehicular. De ellas se escogió la de mayor factibilidad en cuanto a la posibilidad de evaluación que se podía desarrollar. Esta alternativa se conformó de la propuesta de modificación de la geometría de la zona de estudio y de la optimización de los ciclos y fases de los semáforos que actúan en la intersección trabajada. Las modificaciones planteadas generaron cambios positivos en cuanto a la situación inicial estudiada; ya que se redujeron parámetros de eficiencia importantes como la longitud de cola (se redujeron 16 metros) de vehículos en la avenida de mayor afluencia (Av. San Martin). Además, en cuanto a los usuarios de a pie se les brindó mayores facilidades para movilizarse a través de las avenidas de la intersección analizada. Esto debido a que, se propusieron mejoras para la circulación de usuarios con discapacidad. Asimismo, se brindó mayor tiempo para la circulación peatonal (24 segundos adicionales) en el cruce de la Avenida Tullumayo que es la de mayor circulación peatonal. / Tesis
20

Implementación de un algoritmo genético para elaborar un conjunto de rutas óptimas para el transporte de la comunidad universitaria desde y hacia el campus principal

Castillo Huerta, Julio Rodrigo 27 November 2018 (has links)
En la actualidad, varias universidades como la PUCP no cuentan con un sistema de transporte privado para la comunidad universitaria a pesar de que existen propuestas y es un servicio pedido por un sector de la universidad. Los motivos son varios ya que se debe considerar presupuestos, logística y una planeación adecuada de las rutas de servicio. Este último punto es complicado de por sí pues es difícil poder encontrar un conjunto de rutas que cumplan con satisfacer la demanda de una manera óptima. En primer lugar, se debe considerar que, en una ciudad de gran tamaño, realizar cualquier tipo de diseño de rutas es un trabajo que presenta muchos desafíos. Con todas las calles y avenidas a considerar, realizar un diseño de rutas eficiente y óptimo no puede ser una tarea manual. También se debe tomar en cuenta el tamaño de la población que se desea atender. Dentro de una universidad de dimensiones similares a la PUCP, se podría estimar una población de algunos miles de usuarios, los cuales representan un desafío en la tarea de planeación de la ruta pues se debe buscar poder satisfacer a la mayoría de ellos. Al tener una población tan grande, el usar rutas no óptimas podría perjudicar a cientos de usuarios. Finalmente, una vez determinada un conjunto de rutas, se debe también establecer la ubicación de los paraderos. Si se posee información del lugar de residencia de los miembros de la comunidad se puede planear mejor qué zonas requieren mayor cantidad de paraderos y cuales menor número. Las herramientas informáticas han sido usadas para resolver problemas similares en el pasado con mucho éxito. Sin embargo, estas han estado más orientadas al sistema de transporte público general. En la revisión se encontró que el algoritmo PIA (Pair Insertion Algorithm) ha resuelto un problema similar de planeación de rutas de transporte público, pero que estos resultados podrían ser mejorados si se usan como población inicial de otro algoritmo como uno genético. Por esto, se propone para el presente proyecto realizar, utilizando al algoritmo PIA, la Implementación de un algoritmo genético para elaborar un conjunto de rutas óptimas para el transporte de la comunidad universitaria desde y hacia el campus principal. / Tesis

Page generated in 0.0658 seconds