• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • Tagged with
  • 9
  • 9
  • 9
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Transmisión inalámbrica de imágenes médicas para un ecógrafo ultra-portátil

Hasbún Avendaño, Nicolás Ignacio January 2018 (has links)
Ingeniero Civil Eléctrico / 23/07/2023
2

PAN: Pantalla Análoga Nacional : diseño de un dispositivo de reproducción de imágenes sincronizadas al sonido, por medio de circuitos de baja tecnología

Bugueño Zúñiga, David January 2012 (has links)
Diseñador Gráfico / A lo largo de la historia de la comunicación el diseñador gráfico ha cumplido un rol importante dentro de la selección, producción e innovación en los soportes de reproducción de imágenes. Estos avances han quedado registrados en la obra de colectivos y movimientos intelectuales con grandes aportes en la estética y en la técnica gráfica. La labor del diseñador ha ido cayendo en un espiral donde cada vez pierde más influencia sobre el imaginario visual, la tecnología y los procesos sociales, lo que nos lleva a cuestionar el verdadero sentido de la profesión y el origen de esta desvinculación de sus raíces. La mercadotecnia y el uso de los medios de comunicación de masas son parte importante y un ejemplo claro de cómo han disminuido las posibilidades de innovación técnica, silenciando discusiones teóricas y relegando el trabajo del diseñador a un rol superficial y cíclico donde la tecnología pasa a ser una limitante creativa más que un factor de proyectación accesible. Buscando antecedentes dentro de la teoría del diseño y disciplinas sociales como la economía, filosofía y estética, se buscan espacios y oportunidades para la utilización de metodologías y medios alternativos de acceso democrático, que permitan la reproducción de imágenes utilizando la tecnología de manera abierta, libre y cooperativa. De esta investigación se extraen elementos para esbozar una metodología de trabajo mediante la cual coordinar un grupo dirigido a la creación de hardware libre, en la convergencia entre el arte y la tecnología, para trabajar en proyectos visuales en apoyo a colectivos de arte independiente. El proceso finaliza con un objeto interactivo que mezcla crítica teórica y práctica aplicada. Es también un punto de partida del colectivo y un producto del proceso de titulación. Esta instalación debe representar el estilo horizontal de la organización, las metodologías abiertas y la crítica al sistema de producción realizadas en la fase de investigación.
3

Plataforma de depurado para renderizadores basados en raytracing

Gioia Chehade, Stefano January 2019 (has links)
Memoria para optar al título de Ingeniero Civil en Computación / Encontrar un error en una aplicación gráfica mediante las herramientas de depurado que proveen los lenguajes de programación convencionales suele no ser una tarea fácil. En este trabajo se propone un método y se implementa una solución para llevar a cabo el depurado de aplicaciones que utilizan raytracing como técnica de renderizado. En concreto, se describe el diseño y construcción de una plataforma web que permite la carga, manipulación y visualización de rayos a través de un esquema particular, que consta de propiedades que describen rayos como típicamente se encuentran en los raytracers, como el origen, dirección, y punto de término, en el caso de rayos finitos. Se propone un sistema de etiquetado, que consiste en asignarle etiquetas a los rayos durante el proceso de generación del esquema, y se muesta cómo se pueden realizar consultas del tipo "¿cuáles son los rayos que fueron reflejados desde un espejo?", o "¿cuáles son los rayos que intersectan con el n-ésimo objeto de la escena?". Por último, la herramienta se valida con 4 desarrolladores, a quienes se les presenta un conjunto de 5 problemas. Estos consisten de una descripción de una escena, una imagen con un error generada por un raytracer con algún tipo de problema, y un registro de rayos generado por este raytracer. El objetivo en cada caso es descubrir, mediante el uso de la aplicación web cargada con este registro, cuál es el problema con la imagen. En 2 de los 5 casos, todos los desarrolladores fueron capaces de encontrar el problema, mientras que en los restantes 3, la mitad fue capaz de encontrar el problema.
4

Evaluación de algoritmos de matching parcial en objetos 3D utilizando un escáner 3D óptico

Meruane Naranjo, Rafael Ernesto January 2015 (has links)
Magíster en Ciencias, Mención Computación / Ingeniero Civil en Computación / El problema de que un computador determine la similitud entre objetos tridimensionales es un problema que tiene aplicaciones directas en diversas áreas como la medicina, la ingeniería y la arqueología, entre otras. Si bien, dentro de los últimos años se han desarrollado varias técnicas que permiten estimar la similitud entre objetos 3D, estas técnicas presentan serios problemas al momento de realizar consultas cuando la información tridimensional es parcial. Actualmente existen muy pocas técnicas que permiten el cálculo de similitud entre objetos 3D cuando la información es parcial. Por otra parte, la evaluación de estas técnicas se ha realizado utilizando información simulada, que no representa efectivamente cómo es la información tridimensional que una máquina puede obtener del mundo real, por lo que se tiene poca información sobre si estas técnicas son realmente útiles en aplicaciones reales. Uno de los objetivos principales de esta tesis consiste en determinar si existe alguna técnica que permita determinar la similitud entre objetos tridimensionales cuando la información es parcial y proveniente de objetos reales, y evaluar su eficacia. Se evaluaron algoritmos de matching parcial en objetos 3D utilizando la información proveniente de un escáner 3D óptico creado especialmente para este fin. El trabajo constó de tres fases: (1) la creación de un escáner 3D óptico utilizando un tablet Android y un proyector digital (2) la creación de una colección de referencia de objetos 3D que incluye mallas 3D parciales (3) la evaluación de algoritmos de matching parcial en objetos 3D. El trabajo de tesis es pionero en el ámbito de la evaluación de algoritmos de matching parcial en objetos 3D utilizando mallas 3D provenientes de objetos de la vida real, sin intervención alguna. Los resultados de este proyecto permitieron obtener métricas más realistas de precision vs recall que las existentes.
5

Uso de modelos en OpticStudio (Zemax) para caracterizar el perfil de luz de imágenes astronómicas

Jara Pinochet, Rodolfo Alejandro January 2017 (has links)
Ingeniero Civil en Computación / La luz visible es la única parte de la radiación electromagnética que es reconocida como un estímulo detectable en el sistema visual humano. Para mejorar la capacidad de observar imágenes astronómicas se han desarrollado grandes y precisos telescopios. Asimismo, la sensibilidad de las observaciones actualmente ha mejorado al usar detectores CCD (Charge- Coupled Device), que recogen fotones y convierten a formato digital la información que se recibe del objeto astronómico en observación. A partir de modelos en OpticStudio (modelos ópticos) se simularon PSFs (Point Spread Function) en dispositivos CCD y se verifico que las simulaciones realizadas producían una respuesta igual de buena como la predicha por la teoría de aberraciones clásica. Como información de contexto se explican conceptos de óptica, Point Spread Function (PSF), modelos de telescopios, una descripción pormenorizada de los dispositivos CCD. Se describe las funciones atingentes a la generación de una PSF a partir de un modelo óptico en el software OpticStudio y se explica cómo se llegó al código (en Matlab) utilizado para realizar las simulaciones. Del modelo en OpticStudio se exportaba la grilla de datos de la Huygens PSF a Matlab, donde se integraba, se asignaba a los pixeles del CCD y se agregaban las fuentes de ruido para producir las simulaciones, de las cuales se producían cientos o miles de realizaciones que eran exportadas en formato fits, las cuales eran posteriormente procesadas por un conjunto de rutinas en un ambiente de reducción de datos astronómico (donde los datos astronómicos son manipulados para obtener la información útil al astrónomo). Dentro de las simulaciones se realizaron variaciones desviando el eje óptico (como si el espejo se inclinara) y se compararon dichas variaciones con modelos teóricos, los cuales concordaron en alta medida con la teoría de las aberraciones (coma y astigmatismo), demostrando la utilidad de usar esta forma de estudiar dispositivos ópticos para reproducir efectos ópticos producidos en espejos parabólicos y esféricos (dado que estos son de uso frecuente en astronomía) y así caracterizar el perfil de luz de imágenes astronómicas. / Este trabajo ha sido parcialmente financiado por Proyecto FONDECYT N° 1151213
6

Desarrollo de un algoritmo de stitching para secuencia de imágenes con amplios movimientos de cámara

Gálvez Ortiz, Sebastián Andrés January 2017 (has links)
Ingeniero Civil Eléctrico / En la actualidad, se han desarrollado los algoritmos de stitching para sintetizar el contenido de múltiples imágenes. Dependiendo del tipo de movimiento descrito por la cámara, existen diversas formas de abordar este problema, ya sea generando una imagen plana o una representación tridimensional de la escena. En particular, secuencias de imágenes capturadas con cambios grandes de la posición de la cámara, presentan un desafío para su aplicación directa. Así, el presente trabajo desarrolla una propuesta de algoritmo que incorpora técnicas del estado del arte para abordar este tipo de secuencias. La propuesta se basa en establecer correspondencias mediante la extracción y calce de descriptores visuales y es implementada en dos fases. En la primera, se explora el uso de transformaciones de homografía para relacionar imágenes, proyectando el contenido a una imagen de referencia. En la segunda fase, se estiman simultáneamente las poses de la cámara y una representación aproximada de la escena, correspondiente a una superficie tridimensional, sobre la que se proyecta el contenido de cada vista. Para evaluar el desarrollo, se definen pruebas que incluyen la medición del error de reproyección promedio y la evaluación visual de las composiciones finales. En los resultados obtenidos para el primer enfoque, se miden desplazamientos promedio de más de 4[px] al proyectar sucesivamente puntos correspondientes hacia la vista de referencia. Luego, en la composición final, se observan muchos sectores mal alineados, ya que las transformaciones obtenidas son válidas en zonas muy acotadas de la imagen, producto de las diferencias de profundidad. Estos resultados llevan a implementar la segunda fase, donde se obtienen reconstrucciones parciales de la escena con un error de reproyección promedio de 0.005[px], con desviación de 0.0018[px]. Así, a pesar de la baja densidad de la nube de puntos, existe una mejora en la apreciación visual del alineamiento en la composición, además de introducir la ventaja de utilizar puntos de vista arbitrarios. Con el trabajo realizado, se logran identificar las limitaciones del registro por homografías sobre las secuencias tratadas. Además, se presenta una propuesta que mejora la alineación del primer enfoque, al lograr combinar las distintas vistas de una secuencia sobre una representación tridimensional aproximada de la escena. Finalmente, se concluye que la propuesta desarrollada otorga una base para solucionar el problema planteado y permite identificar líneas de trabajo futuro, entre las cuales se destaca el buscar obtener una reconstrucción métrica densa de la escena que sintetice la información de todas las vistas en el modelo tridimensional. / Este trabajo ha sido parcialmente financiado por Woodtech S.A. y Red To Green S.A. / 16/08/2022
7

Reconocimiento rápido de objetos usando objects proposals y deep learning

Soto Barra, Claudia Naiomi January 2017 (has links)
Ingeniera Civil Eléctrica / El reconocimiento (o detección) de objetos es un área activa y en continua mejora de la visión computacional. Recientemente se han introducido distintas estrategias para mejorar el desempeño y disminuir los costos y el tiempo de detección. Entre estas, se encuentran la generación de Object Proposals (regiones en la imágen donde hay alta probabilidad de encontrar un objeto) para acelerar la etapa de localización, como respuesta al paradigma de ventana deslizante; el cada vez más popular uso de redes Deep Learning y, en particular, para la clasi cación y detección de imágenes, las redes convolucionales (CNN). Si bien existen diversos trabajos que utilizan ambas técnicas, todos ellos se centran en tener una buena performance en conocidas bases de datos y competencias en lugar de estudiar su comportamiento en problemas reales y el efecto que tiene la modi cación de arquitecturas de redes convencionales y la elección adecuada de un sistema de generación de proposals. En este trabajo de título, entonces, se tiene como objetivo principal el caracterizar métodos de generación de proposals para su uso en el reconocimiento de objetos con redes CNN, comparando el desempeño tanto de los proposals generados como del sistema completo en bases de datos fabricadas manualmente. Para estudiar el sistema completo, se comparan dos estructuras conocidas, llamadas R-CNN y Fast R-CNN, que utilizan de distintas formas ambas técnicas (generación de proposals y detección) y donde se considera en el estado del arte mejor Fast R-CNN. Se propone en este trabajo que esta hipótesis no es del todo cierta en el caso de que se trabaje con un número su cientemente bajo de proposals (donde las bases de datos acá construidas se enfocan en precisamente asegurar una cantidad baja de objetos de tamaños similares presentes en cada una: objetos sobre super cies y objetos de una sala de estar) y se acelere el proceso de clasi cación alterando el tamaño de entrada de la red convolucional utilizada. Se eligieron tres métodos de generación de Proposals de la literatura a partir de su desempe ño reportado, y fueron comparados en distintos escenarios sus tiempos de procesamiento, calidad de proposals generados (mediante análisis visual y numérico) en función del número generados de estos. El método llamado BING presenta una ventaja sustancial en términos del tiempo de procesamiento y tiene un desempeño competitivo medido con el recall (fracción de los objetos del ground truth correctamente detectados) para las aplicaciones escogidas. Para implementar R-CNN se entrenan dos redes del tipo SqueezeNet pero con entradas reducidas y seleccionando los 50 mejores proposals generados por BING se encuentra que para una red de entrada 64x64 se alcanza casi el mismo recall (~ 40%) que se obtiene con el Fast R-CNN original y con una mejor precisión, aunque es 5 veces más lento (0.75s versus 0.14s). El sistema R-CNN implementado en este trabajo, entonces, no sólo acelera entre 10 y 20 veces la etapa de generación de proposals en comparación a su implementación original, si no que el efecto de reducir la entrada de la red utilizada logra disminuir el tiempo de detección a uno que es sólo 5 veces más lento que Fast R-CNN cuando antes era hasta 100 veces más lento y con un desempeño equivalente.
8

Estudio del uso de fotogrametría en la detección de grietas y desplazamientos en suelos finos y arenas

Pizarro Granada, Natalia Valentina January 2017 (has links)
Ingeniera Civil / Este trabajo estudia la aplicación de técnicas de fotogrametría para detectar deformaciones y desplazamientos en suelos finos y arenas producto de cambios de humedad en laboratorio. Los suelos finos analizados son arcillas caoliníticas y bentoníticas, y la fracción fina de un relave, materiales con variados índices de plasticidad y sensibilidad a cambios de humedad. Las deformaciones que se analizan en este caso son grietas de desecación. Además, se analiza el comportamiento de arenas medias y finas para detectar desplazamientos producto de la pérdida de humedad originada por su secado, cuando se encuentran en una pendiente. Los ensayos consisten en la captura consecutiva de fotografías a las muestras de suelo en distintos estados de deformación mientras son sometidas a ciclos de temperatura. Las muestras se ensayan dentro de un contenedor térmicamente aislado, equipado con sensores de temperatura, termostato, cámara fotográfica, fuente de calor y ventilador. Los métodos de fotogrametría utilizados son correlación digital de imágenes (CDI) y velocimetría de imágenes de partículas (VIP). Ambos métodos detectan desplazamientos y deformaciones en los suelos finos; sin embargo, en el caso de arenas, solo pueden identificar una zona deformada, pero no su magnitud ni los desplazamientos experimentados. Además, se verifica que suelos finos con mayor plasticidad presentan mayores deformaciones. Sin embargo, la caolinita experimenta mayores niveles de deformación superficial que la bentonita durante el periodo de ejecución de los ensayos por su menor capacidad de retención de agua. Las técnicas analizadas pueden ser utilizadas en terreno de manera complementaria, como un indicador del deterioro superficial de taludes, si se consideran factores como variación de textura, generación de sombras, movimientos de cámara y resolución de imágenes.
9

Deep learning para identificación de núcleos activos de galaxias por variabilidad

Miranda Castillo, Nicolás Martín January 2018 (has links)
Magíster en Ciencias, Mención Computación / En la presente era de datos masivos, la astronomía requiere de herramientas automatizadas para el análisis de información asociada al comportamiento de objetos a lo largo del tiempo. El desarrollo de proyectos de observación sinópticos plantea muchos desafíos en lo que respecta a obtener descripciones relevantes de los aspectos subyacentes de muchos procesos variables en el tiempo. En particular, el estudio de los Núcleos Activos de Galaxia (AGN) resulta de especial interés; dado su comportamiento estocástico en el tiempo y la singular estructura en la variación temporal de su emisión electromagnética. El uso de algoritmos de aprendizaje computacional ha sido de gran éxito en aspectos de identificación de objetos según su morfología y análisis espectral; es de mucho valor el replicar esos resultados en el análisis de dominio temporal. Con este fin es que se puso a prueba distintas configuraciones de arquitecturas de algoritmos de Deep Learning, en particular Convolutional Neural Networks y Recurrent Neural Networks, con el fin de realizar tareas de clasificación de AGN a partir de sus curvas de luz. Estos se pusieron a prueba sobre datos simulados mediante un modelo matemático y sobre 6102 curvas de luz reales obtenidas a partir de observaciones de los campos extragalácticos COSMOS, Stripe82 y XMM-LSS. Los resultados fueron favorables sobre datos simulados, alcanzando un puntaje ROC AUC máximo de 0.96, pero no así sobre datos reales, donde el puntaje máximo alcanzado fue de 0.55 ROC AUC. Esta diferencia puede explicarse debido al reducido número de datos reales del que se dispuso a la hora de entrenar los distintos clasificadores, y a que el modelo de simulación permitió generar un mucho mayor número de curvas de entrenamiento, lo cual permitió un mucho mejor aprendizaje a partir de estas. El presente trabajo entregó información cuantitativa sobre lo importantes que son ciertas características de las curvas de luz, en particular la regularidad de su muestreo y el número de observaciones, en el desempeño de estos tipos de modelos de clasificación de Deep Learning. Junto con esto, se plantea un flujo en el procedimiento de manejo de datos de curvas de luz para clasificación, desde su recolección desde archivos de formato estándar (FITS) hasta la validación de los modelos, que puede ser reutilizado en el futuro en aplicaciones de Deep Learning sobre series de tiempo. Se sugiere, además, el añadir en próximas implementaciones métodos para manejo de incertidumbre debido a ausencia de mediciones, tales como modelos gráficos, de estado oculto o estocásticos.

Page generated in 0.1145 seconds