Spelling suggestions: "subject:"por computadores"" "subject:"por computador""
11 |
Análisis, diseño e implementación de mecanismos lógicos de soporte de elementos y gestión de secuencia de un videojuego de rol y estrategia en tiempo realMontano Vega, Piero David 15 October 2014 (has links)
El presente proyecto de fin de carrera tiene como fin la implementación de las reglas y la lógica de control de un videojuego que permite contar una historia a través de sus personajes. Se exploran características de juego de rol (RPG), centrándose en el control y la evolución de un personaje a través del tiempo en un contexto narrativo; y características de un juego de estrategia real (RTS), presentando un entorno donde se enfatizan desafíos estratégicos, tácticos y logísticos.
En el primer capítulo se presenta la problemática y el contexto que sugiere la implementación de la lógica de control de un videojuego de las características señaladas en el primer párrafo. Además se propone una solución luego de presentar los conceptos principales que faciliten la comprensión del presente documento y un análisis cronológico de la evolución de los elementos de juego de rol y estrategia en tiempo real a través de los juegos más representativos de ambos géneros según el autor.
En el segundo capítulo se realiza un análisis de viabilidad del proyecto y se identifican los requerimientos de la solución propuesta, según la metodología seleccionada, que sirven para presentar en el tercer capítulo el diseño de la solución. El diseño comprende la arquitectura de software y la exploración de cada una de las componentes que la integran y finalmente, el diseño del sistema de directorios y eventos que configuran el videojuego.
En el cuarto capítulo se presentan las herramientas, tecnología y estándares de programación usadas para la construcción de la solución. Además se proponen las pruebas automatizadas y las pruebas de regresión para la verificación de las exigencias del producto.
Finalmente en el quinto capítulo se presentan las observaciones del proyecto donde se evalúa la escalabilidad de la solución y las recomendaciones para la implementación de nuevas funcionalidades en trabajos futuros. Las conclusiones finales son expuestas en el contexto de los resultados esperados y los objetivos planteados al inicio del proyecto. / Tesis
|
12 |
Microscopio automatizado: conteo de bacilos de tuberculosisSato Yamada, Juan José 07 November 2013 (has links)
La prueba baciloscópica de la tuberculosis es la forma de diagnóstico microscópico
más utilizado para combatir la enfermedad en los países pobres o subdesarrollados
debido a su bajo costo y rapidez. Sin embargo, la realización de esta prueba es un
proceso tedioso, extenuante y requiere de un especialista debidamente capacitado.
Por ello, en el presente trabajo se presenta un algoritmo automatizado para la
detección y conteo de bacilos de tuberculosis presentes en imágenes de muestras
de esputo mediante la utilización de técnicas de procesamiento de imágenes
digitales. Se analizaron diferentes espacios de color para hallar aquella capa o
canal de color que posea un mayor contraste entre las intensidades de color de los
píxeles de los bacilos y del fondo. Para esto se hizo un análisis de los histogramas
mediante las gráficas de las características operativas del receptor. Para la
segmentación de los bacilos, el presente trabajo desarrolló una técnica de
umbralización adaptativa utilizando el método de Otsu para hallar el óptimo valor
umbral. Luego, los objetos detectados son clasificados como bacilos o no-bacilos
mediante un árbol de clasificación utilizando características de área y excentricidad.
El algoritmo desarrollado presenta niveles de sensibilidad, especificidad y exactitud
mayores a 90% y tiene un tiempo de ejecución de aproximadamente 9 segundos
por campo (15 minutos para 100 campos). Cabe resaltar que, a diferencia de
investigaciones previas, la presente tesis buscó desarrollar un algoritmo tanto de
segmentación de los bacilos, como de su clasificación, e implementarlo en un
microscopio automatizado para el diagnóstico automático de la enfermedad en
tiempo real. Con esta finalidad, se implementó el algoritmo desarrollado con el
programa Matlab® en un lenguaje de programación C++, obteniendo un programa
capaz de interactuar con otros programas como el del control de la cámara digital.
Se espera que este trabajo sirva de base para próximos estudios orientados a
automatizar el proceso de diagnóstico de la enfermedad de una manera más óptima
y veloz. / Tesis
|
13 |
Análisis de sensibilidad de los parámetros psico-físicos del modelo de seguimiento vehicular de VISSIM 6Guisado Rojas, Cynthia Alessandra 15 February 2017 (has links)
Para la evaluación de medidas en la gestión de tráfico y la planificación de
infraestructura vial en la ciudad de Lima, como intersecciones, es común aplicar
microsimulación. Para ello se tiene como fundamento la teoría de Seguimiento
Vehicular de Wiedemann implementado en el software PTV VISSIM, en el cual se
emplean los parámetros psico-físicos, distancia estática promedio (ax), distancia de
seguridad aditiva (bxadd) y distancia de seguridad multiplicativa (bxmult), que
describen el comportamiento de los conductores de vehículos (PTV VISSIM, 2011).
En la presente investigación se determina la sensibilidad de dichos parámetros en
la intersección de la av. Bolívar, av. José María Egúsquiza (ex - av. Córdova) y calle
Bernardo Hoggins (ex - calle Andalucía), ubicados en la ciudad de Lima.
Conocer la sensibilidad de los parámetros en mención reduce de manera
significativa el tiempo de modelado del dispositivo vial que se desea simular. De
manera específica, se reduce el tiempo de calibración y validación, a través de la
disminución de la incertidumbre de los valores de los parámetros, producto de un
análisis estadístico. Por lo que se contribuye con las futuras simulaciones
microscópicas de la infraestructura vial urbana y local, que se realizan utilizando el
software Vissim 6.
Lo resultados de la presente investigación revelan que el parámetro de distancia
estática promedio, “ax”, es el parámetro con mayor sensibilidad. Esto debido a que
cuando se realizó la prueba de Kruskal Wallis utilizando el software Minitab, se
observó que los valores de la velocidad promedio de la intersección al variar el
parámetro “ax” producen un valor de H=19.51, el cual es mayor que
. Por lo que se recomienda emplear el valor de “1” debido a que la
agresividad del conductor limeño produce una distancia menor entre vehículos. / Tesis
|
14 |
Rediseño de un preparador automático de muestras de esputo para el diagnóstico de la tuberculosisDavid Ochoa, Juan Diego 18 February 2017 (has links)
La Tuberculosis es una enfermedad infecto-contagiosa que ataca principalmente a los
pulmones, y, en otras ocasiones, a otras partes del cuerpo humano [3]. La bacteria que
causa la tuberculosis se llama el bacilo de Koch (Mycobacterium tuberculosis) [3].
Actualmente, la muerte de tres millones de personas en el mundo por año es causada por
la tuberculosis [3].
Anteriormente, en la PUCP se realizó el diseño de un preparador automático de muestras
de esputo para el diagnóstico de la tuberculosis utilizando la tinción de Ziehl Neelsen [10].
El objetivo del presente trabajo de tesis es obtener un nuevo diseño de un preparador
automático de muestras de esputo para realizar mejoras respecto al anterior diseño.
Para llevar a cabo dicho proyecto, primero se diseñó la estructura mecánica. En esa parte
se ha seleccionado las diversas partes mecánicas necesarias, dependiendo de los
requerimientos establecidos. Luego, teniendo el diseño de la estructura mecánica, se ha
realizado el diseño electrónico de todo el proyecto (sensores, potencia, excitadores,
indicadores, pulsadores, microcontrolador, fuente de alimentación), el cual cumplen con
los requerimientos establecidos. Teniendo el diseño electrónico, se ha realizado la
programación para el control de Ziehl Neelsen, el cual se utilizó el software Atmel Studio
6.2. Se logró simular en Proteus el sensado de los reactivos y el proceso de Ziehl
Neelsen. Asimismo, se realizaron varios circuitos de prueba.
Con el trabajo realizado, el adecuado diseño mecánico permitió reducir las partes
movibles al mínimo, y se logró obtener un aparato de mejor mantenimiento y limpieza.
Además, se obtuvo un control adecuado sobre el encendido y apagado del calentador de
muestras. / Tesis
|
15 |
Propuesta de técnica para la estimación de densidad mamaria en mamografías digitales utilizando técnicas de segmentación y estimadores globalesSegura del Río, César Whesly 29 October 2014 (has links)
Anualmente un millón y medio de nuevos casos de cáncer de mama son
diagnosticados alrededor del mundo. Por tal motivo, se han establecido estrategias de
despistaje temprano de cáncer de mama que utilicen a la mamografía como principal
herramienta. Adicionalmente, se han evaluado diversas variables clínicas que han sido
capaces de estimar el riesgo a desarrollar esta neoplasia. Entre estas variables se
encuentra la densidad mamaria o tejido denso catalogado como principal indicador del
cáncer de mama. La densidad mamaria o tejido denso de la mama incrementa de 3.5
a 5 veces el riesgo de adquirir cáncer de mama.
La mamografía es una imagen formada a partir del principio de rayos X, describe a los
tejidos de la mama y permite la evaluación del estado clínico de los pacientes. Se
utilizan dos acercamientos para su estudio, estos consisten en el análisis cualitativo y
cuantitativo. En el primero se utiliza el criterio de la observación del médico para dar su
juicio de cada caso. En el segundo se procesan digitalmente mamografías y se les
aplican técnicas de segmentación, luego se utilizan métodos cuantificables como
estimadores globales. La segmentación consiste en subdividir una mamografía en los
tejidos que la constituyen mientras que los estimadores globales son algoritmos que se
aplican a la imagen completa y brindan indicadores cuantitativos de esta.
El objetivo de la presente tesis es realizar una comparación entre el tejido denso
obtenido mediante los técnicas de segmentación de Bden, bimodal, C-medias difusas
y Otsu con el establecido por un patrón de oro (segmentación manual de experto). A
partir de las comparaciones, se propondrá un algoritmo de segmentación validado en
base a estimadores globales. Para alcanzar dicho objetivo, se cumplirán los siguientes
objetivos específicos: implementación de técnicas de segmentación de Bden, bimodal,
C-medias difusas y Otsu para calcular el tejido denso; implementación de estimadores
globales intersección sobre unión, índice de similitud estructural (SSIM) y norma L2;
comparación cuantitativa del tejido denso entre mamografías segmentadas y
mamografías del patrón de oro; implementación de propuesta de técnica de
segmentación y cálculo de tejido denso de la mama.
Se ha encontrado que la propuesta de técnica de segmentación implementada para el
cálculo de tejido denso es superior a las demás técnicas en base a estimadores
globales. La técnica propuesta también demuestra un mayor grado de correlación con
el tejido denso calculado por los médicos que las segmentaciónes de Bden, bimodal,
C-medias difusas y Otsu.
Se ha encontrado que en base a los estimadores globales de intersección sobre unión
y SSIM la técnica de segmentación propuesta presenta mejores resultados que las
técnicas implementadas de Bden, bimodal, C-medias difusas y Otsu. El coeficiente de
Pearson es el mejor indicador del grado de correlación que existe entre los porcentajes
de tejido denso calculado por los médicos y la técnica propuesta que con el calculado
por las demás técnicas. / Tesis
|
16 |
Verificación del correcto empaquetado de cápsulas y pastillas en planchas tipo blíster, por medio del análisis de imágenesHuamantinco Liberato, Eduardo 19 July 2011 (has links)
Esta tesis tiene como objetivo el desarrollo de un método eficiente para la
detección de errores en la producción de blister, este método dará sustento a
un sistema de producción, que permita eliminar, o reducir significativamente,
los costos generados por los errores que se analizan en el presente trabajo.
Este sistema estará basado en el método por análisis de imágenes digitales,
por lo cual se tendrá en cuenta el diseño de un modulo de adquisición de
señales digitales, y el consecuente software que permitirá procesar los datos
que de esta manera se adquieren.
Las instrucciones para establecer el método y los objetivos perseguidos nos
proporciona una herramienta eficaz cuya aplicación práctica comprende el
ajuste del mismo para obtener mejores resultados, por lo cual se estableció lo
siguiente:
· La situación actual del empaquetamiento de píldoras y pastillas, que
comprende el análisis de los factores y variables, así como los procesos
que actualmente se realizan, lo que origina la declaración del marco
problemático del empaquetado tipo blister.
· El empaquetado de las pastillas y píldoras, así como las técnicas
utilizadas para su verificación. Se establece también un modelo teórico
basado en definiciones operativas e indicadores cualitativos y
cuantitativos.
· Para la detección de los blister corf deficiencias se ha considerado el
levantamiento de datos, fijando los fundamentos del algoritmo para esta
detección, proceso al cual se llega como consecuencia de la
metodología de la investigación aplicada.
· Finalmente se evalúa el modelo de verificación que propugna esta tesis,
analizando los resultados para diferentes situaciones en que se aplica
el algoritmo. / Tesis
|
17 |
Desarrollo de un programa para la proyección cónica de figuras geométricas simples en R4Torres Sovero, Roberto Javier 13 June 2011 (has links)
El presente trabajo de tesis tiene como principal objetivo hacer una extensión de la
proyección cónica a R4 implementando un visualizador para gráficos en cuatro
dimensiones que muestre la validez de la propuesta.
Geométricamente, la proyección cónica puede interpretarse como la intersección de
un cono con un plano. Partiendo de que ambas figuras geométricas pueden ser
descritas por ecuaciones vectoriales (que no dependen del número de
componentes de dichos vectores), la presente tesis hace un análisis de la
proyección cónica en R4, intenta la generalización a Rn de algunos conceptos
geométricos utilizados y esboza un diseño de software que permita reutilizar las
principales herramientas y buenas prácticas de programación de gráficos en 3D.
Será necesaria la generalización a R4 (y posteriormente a Rn) de algunas figuras
geométricas simples como cubos, conos, esferas y planos, no sólo para la
construcción de la proyección en sí (a partir de un cono y un plano), sino también
para contar con un conjunto de figuras geométricas a dibujar.
En una arquitectura orientada objetos como la propuesta, esto también implica la
necesidad de un diagrama de clases de estas figuras geométricas y de un pipeline
para el proceso de creación, transformación y proyección de las mismas.
Finalmente, en R4, una clase cámara se encargará de realizar la proyección
utilizando transformaciones con matrices y vectores de orden 4, restringiendo la
proyección al rango visible de la cámara. Dándole al usuario la posibilidad de mover
la cámara en R4 será posible apreciar, en tiempo real, los resultados de las
hipótesis desarrolladas en el presente trabajo. / Tesis
|
18 |
Diseño de un algoritmo para rendering eficiente de estructuras proteicas de gran escalaMoreno Valles, Fernando Antonio 19 November 2014 (has links)
El software de gráficos por computadora en 3D de hoy en día nos da la capacidad
de modelar y visualizar objetos en situaciones o tamaños que antes no habría sido
posible, incluso nos dan la capacidad de que la visualización de estos objetos sea
generada en tiempo real lo que otorga la posibilidad de crear aplicaciones que
hagan uso de esta capacidad para agregar interactividad con los objetos
modelados.
Es muy importante la capacidad de poder dotar al usuario de una capacidad de
interactividad con el gráfico generado, pero esto no se logra si es que el tiempo de
respuesta de la aplicación es muy grande, por ejemplo una consola de videojuegos
exigen como mínimo 30fps (cuadros por segundo) un valor menor ocasiona que los
movimientos no fueran fluidos y se pierda la sensación de movimiento. Esto hace
que la experiencia de usuario fluida sea una de las metas principales del rendering
interactivo.
Uno de los mayores problemas que se encuentran en esta área es el de visualizar
gran cantidad de polígonos, debido a limitaciones de memoria o capacidad de
procesamiento, mientras mayor sea la cantidad de polígonos que se desea dibujar
en pantalla, mayor será el tiempo de procesamiento que será necesario para
generar las imágenes. Una aplicación en particular es el de visualización de la estructura de proteínas.
Existen proteínas que poseen una gran estructura, por la cantidad de polígonos que
se requieren para representar todos los elementos y conexiones que poseen estas
moléculas y adicionalmente la necesidad de visualizar grandes cantidades de
moléculas simultáneamente, ocasiona que se disminuya el rendimiento y la
interactividad al momento de la visualización.
El presente proyecto plantea utilizar una estructura algorítmica para realizar
rendering eficiente de gran cantidad de proteínas haciendo uso de un visualizador
3D, que muestre la estructura tridimensional de estas y permita la interacción en
tiempo real con el modelo. La estructura propuesta en este proyecto hace uso de la
aceleración por hardware presente en las tarjetas gráficas modernas a través de un API de generación de gráficos en tiempo real que es OpenGL con el cual se aplican
optimizaciones que aprovechan la estructura planteada.
Para que el proceso de renderizado sea más veloz, se mantiene un número bajo de
polígonos en los modelos. Debido a que los elementos son repetitivos (esferas y
cilindros) se reutiliza la geometría de estos elementos haciendo uso de una
estructura como el Scene Graph de modo que el uso de memoria sea menor y de
otra estructura como el Octree que permite discriminar los elementos que deben ser
procesados durante el rendering.
Combinando todo lo mencionado anteriormente, la estructura propuesta permite
que se visualicen proteínas de gran estructura o gran cantidad de estas,
manteniendo el grado necesario de interactividad para facilitar su estudio así como
también manteniendo un aspecto estético que permita reconocer los elementos sin
reducir el rendimiento. / Tesis
|
19 |
Micro-simulación intermodal en la ciudad del Cusco empleando los software Vissim 8 y Viswalk 8Álvarez Vargas, Jordy Wilber 15 May 2017 (has links)
El proyecto de ingeniería a desarrollar consta del estudio de una intersección ubicada
en la ciudad de Cusco entre los distritos de Wanchaq y Cusco Cercado con el fin de
evaluar las condiciones de los usuarios dentro de la misma. La evaluación se
realizará mediante un modelo microscópico de tráfico (intersección), para luego
presentar propuestas de mejoras a la situación inicial.
El análisis se realizará a través de los softwares computacionales Vissim 8.0 y
Viswalk 8.0. Estos programas son capaces de simular el tráfico vehicular y peatonal
de una zona de interés específico basándose en los datos recolectados en campo
(flujo vehicular, flujo peatonal, ciclos de semáforos, geometría, etc.).
Para llevar a cabo este modelamiento, se procede a recrear la intersección
virtualmente en los programasmencionados con todos los datos obtenidos en campo.
Para conseguir la mayor similitud posible a la realidad, el modelo debe ser calibrado
una vez terminado el procesamiento de datos. Esta calibración consta de ajustes
numéricos entre la realidad y el modelo. En el caso de este estudio, se tomará en
cuenta como parámetros de evaluación las longitudes de cola, la demora promedio y
la velocidad promedio. Posteriormente, se procede a la validación del modelo, para
lo cual se cambian los datos iniciales por nuevos datos de campo. Una vez terminado
el modelo se procede a evaluar los parámetros de eficiencia y se propondrán
alternativas según los resultados obtenidos. Estas pueden ser variaciones en
términos de ciclos del semáforo hasta un rediseño vial si así ameritara el caso.
En este proyecto, se plantearon tres propuestas con la finalidad de mejorar la
situación actual del tráfico peatonal y vehicular. De ellas se escogió la de mayor
factibilidad en cuanto a la posibilidad de evaluación que se podía desarrollar. Esta
alternativa se conformó de la propuesta de modificación de la geometría de la zona
de estudio y de la optimización de los ciclos y fases de los semáforos que actúan en
la intersección trabajada. Las modificaciones planteadas generaron cambios
positivos en cuanto a la situación inicial estudiada; ya que se redujeron parámetros
de eficiencia importantes como la longitud de cola (se redujeron 16 metros) de
vehículos en la avenida de mayor afluencia (Av. San Martin). Además, en cuanto a
los usuarios de a pie se les brindó mayores facilidades para movilizarse a través de
las avenidas de la intersección analizada. Esto debido a que, se propusieron mejoras
para la circulación de usuarios con discapacidad. Asimismo, se brindó mayor tiempo
para la circulación peatonal (24 segundos adicionales) en el cruce de la Avenida
Tullumayo que es la de mayor circulación peatonal. / Tesis
|
20 |
Implementación de un algoritmo genético para elaborar un conjunto de rutas óptimas para el transporte de la comunidad universitaria desde y hacia el campus principalCastillo Huerta, Julio Rodrigo 27 November 2018 (has links)
En la actualidad, varias universidades como la PUCP no cuentan con un sistema de
transporte privado para la comunidad universitaria a pesar de que existen propuestas
y es un servicio pedido por un sector de la universidad. Los motivos son varios ya que
se debe considerar presupuestos, logística y una planeación adecuada de las rutas de
servicio. Este último punto es complicado de por sí pues es difícil poder encontrar un
conjunto de rutas que cumplan con satisfacer la demanda de una manera óptima.
En primer lugar, se debe considerar que, en una ciudad de gran tamaño, realizar
cualquier tipo de diseño de rutas es un trabajo que presenta muchos desafíos. Con
todas las calles y avenidas a considerar, realizar un diseño de rutas eficiente y óptimo
no puede ser una tarea manual.
También se debe tomar en cuenta el tamaño de la población que se desea atender.
Dentro de una universidad de dimensiones similares a la PUCP, se podría estimar una
población de algunos miles de usuarios, los cuales representan un desafío en la tarea
de planeación de la ruta pues se debe buscar poder satisfacer a la mayoría de ellos. Al
tener una población tan grande, el usar rutas no óptimas podría perjudicar a cientos de
usuarios.
Finalmente, una vez determinada un conjunto de rutas, se debe también establecer la
ubicación de los paraderos. Si se posee información del lugar de residencia de los
miembros de la comunidad se puede planear mejor qué zonas requieren mayor
cantidad de paraderos y cuales menor número.
Las herramientas informáticas han sido usadas para resolver problemas similares en
el pasado con mucho éxito. Sin embargo, estas han estado más orientadas al sistema
de transporte público general. En la revisión se encontró que el algoritmo PIA (Pair
Insertion Algorithm) ha resuelto un problema similar de planeación de rutas de
transporte público, pero que estos resultados podrían ser mejorados si se usan como
población inicial de otro algoritmo como uno genético. Por esto, se propone para el
presente proyecto realizar, utilizando al algoritmo PIA, la Implementación de un
algoritmo genético para elaborar un conjunto de rutas óptimas para el transporte de la
comunidad universitaria desde y hacia el campus principal. / Tesis
|
Page generated in 0.0658 seconds