• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 13
  • Tagged with
  • 84
  • 84
  • 18
  • 18
  • 17
  • 15
  • 15
  • 15
  • 15
  • 15
  • 12
  • 10
  • 10
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Comparación de algoritmos de cálculo del Skeleton y su aplicación en biología

Lavado Abarzúa, Alejandro Andrés January 2018 (has links)
Magíster en Ciencias, Mención Computación. Ingeniero Civil en Computación / Los algoritmos de cálculo del skeleton son una herramienta computacional de amplia utilización en el procesamiento de imágenes y volúmenes médicos y biológicos. Se trata de procedimientos que reducen una figura a un conjunto de líneas que pasan por su centro. El skeleton de una figura puede ser calculado siguiendo estrategias muy diferentes. Debido a esto, cada algoritmo de cálculo del skeleton puede producir un resultado muy distinto a los demás algoritmos. Ahora bien, cuando se está trabajando en una aplicación donde se requiere el skeleton, ¿cómo elegir el mejor algoritmo para calcularlo? En esta tesis se proponen métricas originadas en el análisis morfológico de estructuras biológicas para responder cuantitativamente a la pregunta anterior, como el largo total del skeleton, su número de nodos y sus ángulos de bifurcación. Estas métricas permiten caracterizar numéricamente un skeleton y compararlo con otros. De esta manera, el mejor algoritmo para una aplicación en específico puede ser seleccionado en base a los valores de las métricas relevantes para esa aplicación. Para demostrar la efectividad de estas métricas, se implementaron tres algoritmos de cálculo del skeleton basados en principios teóricos distintos: adelgazamiento topológico, cálculo del skeleton basado en la divergencia y cálculo del skeleton basado en la distancia. Estos algoritmos, más un cuarto basado en contracción de mallas, fueron utilizados para calcular los skeletons de modelos biológicos simulados y reales. Los skeletons de modelos simulados permitieron medir la desviación de cada algoritmo con respecto al valor ideal de cada métrica, revelando diferencias significativas en algunos casos. Ejemplo de esto es la métrica del largo total en estructuras tipo neurona: el cálculo del skeleton por contracción de mallas produce una estructura significativamente más corta que el skeleton calculado mediante un algoritmo basado en la distancia, cuyo largo total es cercano al real. Sin embargo, el algoritmo de contracción de mallas resulta más apropiado para calcular los ángulos de bifurcación. Por último, las métricas para skeletons de modelos reales ilustraron marcadas diferencias entre los resultados producidos por cada algoritmo para la misma figura. / Parcialmente financiado por el Fondo Nacional de Desarrollo Científico y Tecnológico (FONDECYT 11161033), el Instituto Milenio de Neurociencias Biomédicas - BNI (P09-015-F) y la iniciativa Anillo (ACT1402)
12

Sistema de teleoperación basado en interfaz háptica para brazo robótico

Valenzuela Urrutia, David Rodrigo January 2016 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / Esta tesis se enfoca en la interfaz hombre máquina (Human-Machine Interface) de un sistema de Teleoperación Bilaterial, con el objetivo de mejorar la experiencia del operador, incrementando la eficiencia y calidad del trabajo realizado por el robot controlado por el usuario. Se propone un sistema de teleoperación basado en la tecnología háptica, la cual entrega al usuario información del entorno de trabajo del robot a través del sentido del tacto además de la información tradicional entregada a través del sentido de la vista. Con un dispositivo de control háptico el usuario es capaz de percibir los relieves y formas de los objetos que rodean al robot. Para concretar el desarrollo de la teleoperación háptica, se implementa un método de cálculo de fuerza de retroalimentación utilizando la Point Cloud obtenida desde el entorno de operación del robot. En la teleoperación tradicional, el usuario sólo es asistido por las imágenes de las cámaras ubicadas en el sitio de operación. Con la metodología propuesta, el operador puede tomar mejores decisiones ya que además de la información visual, posee la información táctil. La hipótesis de este trabajo es que la teleoperación háptica permite al operador controlar un brazo robótico con mayor precisión, comparando su desempeño con una teleoperación no háptica. La retroalimentación háptica en el dispositivo de control permite evitar movimientos indeseados con el robot, y por lo tanto previene colisiones. En el sistema de teleoperación propuesto, el brazo robótico tiene sujeto una cámara RGB-D cerca del efector, con lo cual se obtienen imágenes 3D del ambiente desde diferentes ángulos. El movimiento del efector del robot es controlado por el usuario a través del dispositivo háptico Phantom Omni, el cual está sujeto a las restricciones del algoritmo de proxy. Usando el algoritmo háptico, la información de posición del proxy y el movimiento requerido por el operador, se realiza el desplazamiento del efector del robot. El efector se mueve libremente cuando no hay obstáculos, pero al detectar una posible colisión emite una señal que activa en el dispositivo Phantom Omni una fuerza de retroalimentación para el usuario, quien percibe la repulsión del objeto presente en el ambiente real del robot. La validación experimental de la metodología de teleoperación propuesta, consiste en la realización de pruebas de seguimiento de trayectoria por 20 operadores humanos voluntarios, utilizando el efector del robot industrial KUKA y un panel de pruebas. Los operadores deben completar las pruebas de seguimiento mediante el uso de retroalimentación háptica y también en la ausencia de esta. Además, se les pide completar estas tareas usando dos modos de cinemática del robot. Para cada usuario voluntario se obtuvo el error de posición del efector del robot en cada sección de la trayectoria, se contabilizó la cantidad de correcciones de posición, cantidad de colisiones (fuertes y débiles), y además se obtuvo el tiempo requerido para completar la tarea. Los resultados obtenidos a partir del análisis estadístico de la validación experimental, confirman que con el método de teleoperación háptico (comparado con la teleoperación no háptica) se aumenta la precisión del operador en tareas de seguimiento de trayectoria. Este aumento en la precisión se refleja en la reducción del error promedio entre el desplazamiento ideal y el desplazamiento realizado por los usuarios, además de reducir el número de colisiones totales entre el efector del robot y el panel de pruebas. De esta manera, se confirma la hipótesis planteada, demostrando que al agregar el sentido háptico a sistemas de control bilaterales aumenta la precisión de teleoperación y se reducen los tiempos de entrenamiento que requieren los operadores para mover el robot real con éxito. / This thesis is focused on the Human-Machine Interface of a Bilateral Teleoperation System, the objective of which is to improve the operator experience via increasing the e ciency and quality of the teleoperated robot tasks. The teleoperation system proposed in this work uses haptic technology that provides the user with environmental information from the robot workspace via the senses of touch and sight, using the haptic device and a traditional screen. With the haptic control device, the user senses the reliefs and forms of the objects that surround the robot. To make this possible, it is necessary calculate the force feedback from the Point Cloud data of the robot workspace. Using traditional teleoperation systems, the user is only assisted by images from cameras located in the operation zone. On the other hand, with the proposed approach the operator can make better decisions with more information (haptic and visual) from the robot environment. The hypothesis of this work is that the haptic teleoperation gives the user a more precise control of the robotic arm compared to traditional non-haptic teleoperation. The haptic feedback in the control device avoids undesirable movements with the robotic arm and, therefore, prevents collisions. In the proposed teleoperation system, the robotic arm has a RGB-D camera near its end-e ector, enabling 3D images to be taken of the environment using di erent angles. The end-e ector movement is controlled by the user through the haptic device Phantom Omni and the proxy algorithm. Using the force feedback algorithm, the proxy position, and the required movement from the operator, the robot end-e ector can be moved. The end-e ector moves freely when no obstacles are detected, but when a possible collision is close, a signal is activated in the Phantom Omni, and the force is fed back to the user, who perceives the object repulsion from the real robot workspace. The experimental validation of the proposed methodology consists of follow path tasks in a test panel with 20 volunteers, using the end-e ector of an industrial robot KUKA. The operators must complete the follow path tasks with and without the force feedback. Furthermore, the users have to complete the tasks with two modes of robot cinematic control. For each user, the following are obtained: the e ector error position in every step of the trajectory, the total position corrections, the number of collisions (strong and weak), and nally the total time in completing the tasks. The results obtained from the statistical analysis of experimental validation con rm that using the method of haptic teleoperation instead of the non-haptic method increases the operator precision in a follow path task. This precision increment is observed in the mean error reduction between the ideal trajectory and the trajectory generated by the users, and decrease of the total number of collisions between the robot end-e ector and the test panel. The hypothesis is con rmed, proving that incorporating the touch sense to a bilateral teleoperation system increases the precision and decreases the training time required by the users for moving the robot in the real environment.
13

Implementación de una Biblioteca de Triangulación de Polígonos Basada en el Algoritmo LEPP Delaunay

Valenzuela Salvatierra, Pedro Daniel January 2010 (has links)
Las mallas de triángulos son ampliamente utilizadas en aplicaciones científicas e ingeniería. Una triangulación de un conjunto de puntos puede construirse utilizando diversos algoritmos, pero usualmente se prefiere aquellos que además de ser eficientes en tiempo y espacio, entreguen triángulos cuyo menor ángulo se encuentre sobre cierta cota. La triangulación de Delaunay de un conjunto de puntos maximiza el ángulo mínimo de todos los triángulos de la triangulación. Sin embargo, el ángulo mínimo en una triangulación de Delaunay puede ser menor que el valor requerido en una aplicación dada. Existen métodos de refinamiento de triangulaciones basados en la inserción de nuevos puntos en la malla que incrementalmente mejoran el ángulo mínimo de una triangulación. De especial interés es la familia de métodos de refinamiento basados LEPP, que recorren los triángulos de una malla a través de las aristas más largas de los triángulos. El uso de los métodos de refinamiento basados en LEPP-Delaunay en aplicaciones, requiere la implementación de estructuras de datos para la representación de la malla, primitivas geométricas, algoritmos de triangulación y algoritmos de manipulación de los datos. El costo de escribir una aplicación desde cero se eleva al considerar los requisitos anteriormente mencionados. El presente informe describe la implementación de una biblioteca reusable y general que ofrece la funcionalidad de los métodos LEPP-Delaunay. De esta manera, es posible crear aplicaciones que utilicen dichos métodos sin la necesidad de invertir tiempo de desarrollo en los algoritmos y estructuras de datos asociadas. En otras palabras, el foco del desarrollo puede estar completamente en la aplicación de los métodos LEPP-Delaunay y no en sus detalles de implementación. La biblioteca LEPP-Delaunay fue construida utilizando las estructuras de datos de OpenMesh, proyecto que ofrece una implementación extensible y flexible de la representación de una malla en base a la estructura de datos halfedge. Para mostrar las capacidades de la biblioteca LEPP-Delaunay se implementó una herramienta gráfica para el análisis de mallas que hace uso de la funcionalidad provista por la biblioteca LEPP-Delaunay.
14

Modelo de detección de agresiones verbales, por medio de algoritmos de Machine Learning

Bugueño Sáez, Víctor Gabriel January 2017 (has links)
Ingeniero Civil Industrial / El presente trabajo tiene como objetivo detectar evidencias de agresiones verbales en archivos de audio. Al respecto se identifican dos clases: Conversaciones normales y Agresión verbal. Para lograr el objetivo, se aplican 4 métodos. El modelo utilizado por Vincenzo Carletti et.al [7], en donde se propone un enfoque para la detección de eventos de audio basados en el paradigma de "bolsa de palabras" (del inglés, Bag of Words), una variación de este modelo utilizando features de la herramienta openSMILE, Support vector machine alimentado por ambas clases y finalmente regresión lineal alimentada por ambas clases. Al no tener bases de datos abiertas con las clases que se desean analizar, se procedió a construir una base de datos propia recolectando archivos de audio de películas y de internet. De esta manera se obtuvo 809 archivos de audio de 3 segundos de ambas clases de interés y 145 archivos de audio de pocos milisegundos para alimentar la primera etapa del modelo de Vincenzo Carletti. Se utilizó el software Audacity para transformar los archivos de audio y para extraer el audio de registros audiovisuales de películas. Se utilizó el software Rstudio para el procesamiento general. En este trabajo se utilizaron 11 features para realizar la clasificación en el modelo original de Vincenzo Carletti. El modelo de Vincenzo, se repitió usando 148 features provenientes de la herramienta openSMILE. Estas mismas features fueron utilizadas para ejecutar los algoritmos de Support vector machine y Regresión lineal. Los resultados obtenidos fueron de 86.27% de exactitud para el modelo con features originales de Vincenzo Carletti, 79.32% de exactitud para el modelo de Vincenzo utilizando 148 features de openSMILE, 98.19% para algoritmo Support vector machine y 97.74% de exactitud para el algoritmo de regresión lineal. Los resultados arrojaron resultados prometedores, respecto a la identificación de agresiones verbales, lo que puede permitir el desarrollo de aplicaciones que las puedan identificar monitoreando en tiempo real y que permitan detectar alguna situación de peligro de una persona en condición de vulnerabilidad. / Este trabajo ha sido financiado por el Proyecto Fondecyt 11130252
15

Generación de Skeletons a Partir de Mallas de Superficie

Alcayaga Gallardo, Liliana Francisca January 2012 (has links)
El modelamiento y análisis de estructuras biológicas microscópicas 3D de alta ramificación es una tarea desafiante debido a su alta complejidad. Un método para abordar esta tarea corresponde a la generación de skeletons, como modelos de dimensión reducida. El skeleton de un objeto 3D es una representación 1D del mismo, aproximadamente equidistante a los bordes y que busca conservar sus propiedades geométricas y topológicas. Los skeletons, aplicados a estructuras biológicas complejas de interés, requieren satisfacer las siguientes propiedades: ser unidimensionales, invariantes bajo transformaciones isométricas, aproximadamente centrados y homeotópicos. El objetivo de este trabajo de título fue implementar un algoritmo de esqueletonización correcto y robusto, tomando como base un método descrito para mallas triangulares de superficie 3D. El algoritmo implementado considera tres etapas: una de contracción de la geometría, una de remoción de todas las caras de la malla que la transforma en una estructura unidimensional, y una de centrado para la corrección del skeleton resultante. Para garantizar la robustez del algoritmo, se añadió una rutina de preprocesamiento que verifica que la malla de entrada sea válida; además se realizaron pruebas unitarias para validar los distintos escenarios posibles en las tres etapas del método. En esta implementación se utilizó el paradigma de programación orientada a objetos y de patrones de diseño para facilitar la extensión y modificación del software. Se evaluó la implementación del algoritmo y de las mejoras propuestas utilizando (i) mallas simples de figuras de fantasía, presentadas en trabajos previos sobre esqueletonización, y (ii) mallas complejas de estructuras biológicas observadas por microscopía confocal. En el último caso se recurrió a biólogos expertos para evaluar los resultados. Al emplear este método con mallas biológicas de distinto tamaño y complejidad, se obtienen skeletons correctos que satisfacen las propiedades requeridas. En particular se utilizaron mallas de superficie de: red de retículo endoplasmático de células de cultivo COS-7, cuerpo y soma de neuronas pertenecientes al órgano parapineal del pez cebra y conglomerados de membranas plásticas de células de cresta neural de pez cebra. Al emplearlo con las mallas de fantasía se obtienen skeletons aproximadamente centrados en casi todos los casos, y en un caso se observó una región del skeletons que quedó ubicada fuera de la figura original. Además, en este último tipo de mallas, se observa que el tener una malla simétrica no implica que el skeleton resultante sea simétrico. Para todos los casos la aplicación realizada cumple los requerimientos de robustez en las tres etapas del algoritmo. Finalmente, la extensión del trabajo realizado en proyectos futuros abarca temas como: la paralelización de la aplicación, y mejoras para garantizar que el skeleton se encuentre siempre dentro de la malla y aproximadamente centrado con respecto a ésta.
16

Desarrollo de una línea de productos de software de generación de mallas geométricas

Díaz Ríos, Violeta Naomi January 2012 (has links)
Ingeniera Civil en Computación / Las líneas de productos de software constituyen un paradigma de desarrollo, en el cual se busca construir, a partir de un conjunto de elementos clave, sistemas que comparten características comunes, o similitudes, y a la vez mantienen características propias, o variabilidades. Un ejemplo de sistema que puede verse beneficiado con este paradigma es el software generador de mallas geométricas. Las mallas geométricas son poderosas herramientas que permiten representar un objeto como un conjunto de polígonos contiguos. El presente trabajo de título tuvo por objetivo la construcción de una interfaz gráfica que permita al usuario la configuración y creación automática de productos correspondientes a generadores de mallas con distintas funcionalidades, utilizando la ingeniería de líneas de productos de software. El desarrollo consistió en extender la aplicación desarrollada en un trabajo de título anterior, que permitía configurar un producto, pero dado el acoplamiento del software base utilizado, todos los productos contenían el mismo código fuente. El software base utilizado se compone de dos generadores de mallas ya existentes: Simulador de crecimiento de árboles, sistema que modela el crecimiento de un árbol mediante mallas geométricas, y Generador genérico de mallas, que implementa una secuencia de pasos básica y común para todos los generadores de mallas y provee un apoyo conceptual. Ambos productos permiten cargar, almacenar y manipular las mallas. Durante el desarrollo de esta memoria, primero se realizó una revisión de las funcionalidades de ambos productos, para después identificar sus similitudes y variabilidades. Luego, estas características fueron agrupadas en tres grupos: Tipo de Aplicación, Manejo de Archivos y Algoritmos de procesamiento de mallas. Cada uno de estos grupos correspondió a una sección de la interfaz desarrollada. La interfaz de usuario fue construida de manera que permita la configuración de los productos en tiempo de compilación y de ejecución, mediante la generación de dos archivos de configuración. Esto implicó un análisis sobre el código fuente del software base, en el cual se detectó un alto acoplamiento entre varias de sus clases; por lo tanto, fue necesario realizar una intervención sobre el código de estas clases, para poder desacoplarlas y así compilarlas por separado, excluyendo las clases innecesarias. Como resultado, la interfaz desarrollada permite configurar y crear automáticamente productos generadores de mallas geométricas, de manera que incluyan sólo las funcionalidades escogidas por el usuario. Para trabajos futuros, se propone una re-ingeniería mayor del software base Simulador de crecimiento de árboles, que lo adapte para su utilización en el contexto de una linea de productos de software; además, es posible la adición de nuevos algoritmos y funcionalidades a la línea de productos ya construida.
17

Sistema de detección de tendencias en la Web 2.0 basado en algoritmos de calificación de relevancia y selección automática de fuentes de documentos

Dueñas Fernández, Rodrigo Alfonso January 2012 (has links)
Ingeniero Civil en Computación / El objetivo de esta memoria es solucionar las falencias de un sistema informático para la detección de tendencias en la Web de la consultora Duam S.A., a través del rediseño de su arquitectura de hardware y software, y la modificación de sus algoritmos de extracción de conocimiento. Haciendo uso de este sistema informático, Duam S.A. ofrece el servicio de inteligencia de mercado a variadas empresas, el cual consiste en la realización de un informe donde se analiza el mercado en el cual están inmersas estas instituciones, señalando sus principales competidores, posibles amenazas, oportunidades de inversión, nuevas tecnologías, etc. Este estudio es realizado a través del minado de documentos desde blogs y sitios de noticias, junto con el análisis de las opiniones vertidas en la Web por parte de los usuarios de las redes sociales. Debido a la alta cohesión del código utilizado por el sistema, replicar los procesos internos era una tarea ardua que involucraba altos costos para la empresa, por lo que no era factible dar abasto al minado de cientos de fuentes de documentos o al análisis de múltiples temáticas. Por otro lado, sus algoritmos de extracción de conocimiento no aprovechaban toda la información presente en los documentos recuperados. Además, el uso de una arquitectura física sin separación de capas, no permitía que el sistema escale eficientemente, por lo que la plataforma no era capaz de escalar acorde a la cantidad de fuentes. Por esta misma razón, el exponer la información recuperada para otras aplicaciones mermaba el rendimiento total de la aplicación. Como solución a esta problemática, se desarrollaron nuevos algoritmos de extracción de información y conocimiento desde la Web 2.0 basándose en dos hipótesis: la primera es que es posible obtener fuentes presentes en web que aporten a los resultados obtenidos a partir del análisis de la información existente en los documentos minados por el sistema. La segunda hipótesis es que es posible hacer uso de los emoticones que se encuentran en los documentos opinados para obtener mejores resultados en la extracción de opiniones a partir de estos. Para solucionar los problemas de escalabilidad del sistema se rediseñó la arquitectura considerando múltiples capas de procesamiento en donde todas las componentes están comunicadas y orientada a servicios. Para remediar las falencias del sistema desde el punto de vista de software se modularizó cada una de sus componentes y se planteó una arquitectura para aplicaciones orientadas a terceros con el fin de que estas no mermen su rendimiento. Además, se implementó un algoritmo de calificación de relevancia y selección automática para fuentes de documentos para que la información recuperada retroalimente al sistema. Finalmente, se modificó el algoritmo de extracción de opiniones para que hiciera uso de los emoticones presentes en los documentos opinados a la hora de clasificar éstos según su polaridad. El rediseño de la arquitectura del sistema resultó ser exitoso, reduciendo el uso de recursos, permitiendo la escalabilidad del sistema y además, la replicación de sus procesos internos para analizar múltiples temáticas a la vez. En cuanto al modelo de minado de opiniones, este obtuvo mejores resultados que el original. Al detectar opiniones positivas, el recall aumento de un 0.59 a un 0.62, y la precision de 0.6 a 0.67; mientras que al detectar opiniones negativas, el recall y la precision aumentaron en 0.02 y 0.03 respectivamente. Para el algoritmo de calificación de relevancia, se obtuvo un recall de 0.62 y una precision de 0.35, que están dentro de los rangos esperados debido a la gran cantidad de ruido inducida por nombres de dominio que aparecen pocas veces entre los documentos minados. Se concluye que realizar el rediseño de la plataforma fue beneficioso para la empresa, desde el punto de vista de negocio, debido a la reducción en costo humano que esta implica, y además, la mejora en los resultados entregados por el algoritmo de minado de opiniones permite una mejor apreciación del sistema por parte del usuario final. Así mismo, la posibilidad de incluir aplicaciones orientadas a terceros abre nuevas posibilidades de negocio para la empresa.
18

Implementación de odometría visual utilizando una cámara estereoscópica

Peñaloza González, Andrés January 2015 (has links)
Ingeniero Civil Eléctrico / En ciertas aplicaciones de robótica es importante la utilización de un odómetro para poder estimar la posición de un robot en movimiento. Esto permite que el actor tenga una noción de la ubicación en el entorno por donde se mueve. En aplicaciones como vehículos autónomos es especialmente importante, pues es crítico conocer la posición del vehículo con respecto a su mapa interno para evitar colisiones. Usualmente los odómetros más utilizados son las ruedas y el GPS. Sin embargo estos no siempre están disponibles, debido a adversidades del ambiente. Es por estos motivos que se emplea odometría visual. La odometría visual es el proceso de estimación del movimiento de un vehículo o agente utilizando las imágenes que éste obtiene de sus cámaras. Ella ha sido utilizada en la industria minera con los camiones de carga, y, últimamente en drones aéreos que podrían ser ocupados para el transporte de paquetes. También se ha utilizado para estimar la posición de los robots que actualmente transitan en la superficie de Marte. El presente trabajo tiene por finalidad la implementación de un algoritmo de odometría visual usando una cámara estereoscópica para estimar la trayectoria de un robot, y la evaluación del desempeño de éste comparándola con los valores conocidos de posición. La metodología utilizada permite identificar qué parámetros del algoritmo de estimación de movimiento tienen mayor relevancia y cómo influyen en la rapidez y calidad de la solución. También se determina la influencia de las condiciones de iluminación, y se determina qué zona geométrica de la imagen es mejor para realizar la triangulación de puntos. La solución se compone de un sistema capaz de ejecutar las distintas partes que requiere el algoritmo de manera extensible, siendo fácil reemplazar un método en el futuro con un mínimo impacto en el código. Se obtienen resultados favorables, donde el error de estimación de movimiento es pequeño y, además, se concluye acerca de los factores más importantes en la ejecución del algoritmo. Se discute acerca de la rapidez del algoritmo y se proponen soluciones que ayuden a su implementación en tiempo real.
19

Prognostic based real-time decision making approach for the dynamic and stochastic shortest path problem for electric vehicles

Rozas Ovando, Heraldo Felipe January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / 01/04/2021
20

Clasificación y comparación de métodos de detección de colisiones de fase amplia para imágenes sintéticas en 2D+tiempo

Moraga Aros, Héctor Marcelo January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias, Mención Computación / La detección de colisiones ha sido un tópico de extenso estudio en computación gráfica y geometría computacional. Sus campos de aplicación incluyen la robótica, biología computacional, juegos, y simulaciones en cirugía, física y biología. Un entorno real complejo para la detección de colisiones corresponde a imágenes biomédicas y astronómicas: imágenes en series de tiempo, de gran tamaño, a veces con gran cantidad de objetos, que se mueven y se deforman, y que pueden aparecer o desaparecer de la escena, o experimentar autocolisiones, aspectos que pueden hacer la detección de colisiones un trabajo demasiado lento de calcular sin las estrategias apropiadas. Este trabajo realiza un contraste entre dos enfoques de detección de colisiones de fase amplia en 2D+tiempo: usando los métodos estáticos sweep and prune directo, que funcionan cuadro a cuadro, y el método sweep and prune incremental, que mantiene las estructuras a lo largo de la simulación, contra el enfoque cinético del algoritmo sweep and prune cinético. Ambos enfoques fueron probados en simulaciones de objetos con movimiento rectilíneo en direcciones aleatorias. La comparación se hizo siguiendo los lineamientos de experimentación en algoritmos establecidos por Moret [26] respecto a qué parámetros es pertinente medir, las diez sugerencias de Johnson [22] para realizar un experimento con algoritmos y las sugerencias de Sanders [31] para mostrar los resultados en forma de gráficos. Los resultados muestran que el uso del algoritmo sweep and prune cinético es un orden de magnitud más rápido que los algoritmos sweep and prune estáticos en simulaciones que involucran una distribución aleatoria de objetos en movimiento, sin importar la densidad de objetos en la simulación. También se estudia el efecto de colisiones múltiples dentro de las simulaciones, un suceso que no fue investigado por Coming & Staad [11]. Esto permite hacer sugerencias sobre las instancias en las que un algoritmo es más apropiado que otro.

Page generated in 0.163 seconds