• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 16
  • Tagged with
  • 74
  • 74
  • 19
  • 17
  • 16
  • 15
  • 13
  • 12
  • 10
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Reconocimiento rápido de objetos usando objects proposals y deep learning

Soto Barra, Claudia Naiomi January 2017 (has links)
Ingeniera Civil Eléctrica / El reconocimiento (o detección) de objetos es un área activa y en continua mejora de la visión computacional. Recientemente se han introducido distintas estrategias para mejorar el desempeño y disminuir los costos y el tiempo de detección. Entre estas, se encuentran la generación de Object Proposals (regiones en la imágen donde hay alta probabilidad de encontrar un objeto) para acelerar la etapa de localización, como respuesta al paradigma de ventana deslizante; el cada vez más popular uso de redes Deep Learning y, en particular, para la clasi cación y detección de imágenes, las redes convolucionales (CNN). Si bien existen diversos trabajos que utilizan ambas técnicas, todos ellos se centran en tener una buena performance en conocidas bases de datos y competencias en lugar de estudiar su comportamiento en problemas reales y el efecto que tiene la modi cación de arquitecturas de redes convencionales y la elección adecuada de un sistema de generación de proposals. En este trabajo de título, entonces, se tiene como objetivo principal el caracterizar métodos de generación de proposals para su uso en el reconocimiento de objetos con redes CNN, comparando el desempeño tanto de los proposals generados como del sistema completo en bases de datos fabricadas manualmente. Para estudiar el sistema completo, se comparan dos estructuras conocidas, llamadas R-CNN y Fast R-CNN, que utilizan de distintas formas ambas técnicas (generación de proposals y detección) y donde se considera en el estado del arte mejor Fast R-CNN. Se propone en este trabajo que esta hipótesis no es del todo cierta en el caso de que se trabaje con un número su cientemente bajo de proposals (donde las bases de datos acá construidas se enfocan en precisamente asegurar una cantidad baja de objetos de tamaños similares presentes en cada una: objetos sobre super cies y objetos de una sala de estar) y se acelere el proceso de clasi cación alterando el tamaño de entrada de la red convolucional utilizada. Se eligieron tres métodos de generación de Proposals de la literatura a partir de su desempe ño reportado, y fueron comparados en distintos escenarios sus tiempos de procesamiento, calidad de proposals generados (mediante análisis visual y numérico) en función del número generados de estos. El método llamado BING presenta una ventaja sustancial en términos del tiempo de procesamiento y tiene un desempeño competitivo medido con el recall (fracción de los objetos del ground truth correctamente detectados) para las aplicaciones escogidas. Para implementar R-CNN se entrenan dos redes del tipo SqueezeNet pero con entradas reducidas y seleccionando los 50 mejores proposals generados por BING se encuentra que para una red de entrada 64x64 se alcanza casi el mismo recall (~ 40%) que se obtiene con el Fast R-CNN original y con una mejor precisión, aunque es 5 veces más lento (0.75s versus 0.14s). El sistema R-CNN implementado en este trabajo, entonces, no sólo acelera entre 10 y 20 veces la etapa de generación de proposals en comparación a su implementación original, si no que el efecto de reducir la entrada de la red utilizada logra disminuir el tiempo de detección a uno que es sólo 5 veces más lento que Fast R-CNN cuando antes era hasta 100 veces más lento y con un desempeño equivalente.
42

Design, construction and testing of a 2SB receiver for the southern millimeter-wave telescope

Rodríguez Olivos, Rafael Ignacio January 2015 (has links)
Doctor en Ingeniería Eléctrica / Este trabajo presenta un prototipo de un receptor de separación de banda lateral (2SB) para el Telescopio Austral de Ondas Milimétricas (SMWT) de 1.2 m de diámetro en el marco de su modernización. Ésta consiste en cambiar la configuración del receptor desde una configuración de doble banda lateral (DSB) a una 2SB con el fin de obtener un receptor competitivo para las observaciones astronómicas. También se presenta el rendimiento de este receptor en combinación con una plataforma digital que integra un híbrido de frecuencia intermedia (IF) y un espectrómetro en un receptor astronómico. De esta manera, se logran razones de rechazo de banda mejores que el actual estado del arte . En primer lugar, hemos caracterizado el receptor 2SB totalmente analógico y sus componentes usando dos importantes figuras de mérito: rechazo de banda y temperatura de ruido. La razón de rechazo de banda fue mayor que 7 dB en toda el ancho de banda de trabajo, mostrando que los componentes fabricados (Híbrido RF, Bifurcación de LO y Carga RF) cumplieron de buena forma las especificaciones. La temperatura de ruido del receptor estuvo bajo los 1500 K, atribuible principalmente al bajo rendimiento de los mezcladores comerciales, y más recientemente 300 K, después de cambiar el amplificador de bajo ruido y los mezcladores. Segundo, hemos medido también la razón de rechazo de banda para diferentes configuraciones del receptor 2SB usando un espectrómetro e híbrido RF digital como back-end. En todos los casos, una razón de rechazo de banda superior a 35 dB fue obtenida. Además, hemos comparado el rechazo de banda de un receptor completamente análogo 2SB de Banda-9 de ALMA con uno usando el esquema de back-end digital. Obtuvimos razones de rechazo de banda sobre 35 dB in toda la banda RF para el versión digital. Ésto esta sobre el rendimiento de cualquier receptor 2SB completamente análogo en la actualidad.
43

Visión Activa en un Robot Humanoide Antropomorfo

Schulz Serrano, Rodrigo Andrés January 2010 (has links)
La estimación de la pose es un elemento de gran importancia para sistemas robóticos móviles que se desenvuelven en ambientes dinámicos. Existen diversas metodologías utilizadas para estimar esta pose, siendo esencial para el desempeño de todas ellas la calidad y abundancia de las observaciones obtenidas desde el ambiente. El objetivo del presente trabajo es aumentar la cantidad y mejorar la calidad de las observaciones de un robot humanoide antropomorfo. Para esto se implementó un sistema de visión activa, el cual permite discernir qué objeto o grupo de objetos resulta más conveniente observar para reducir la incerteza en la estimación de la pose del robot, desarrollando con tal propósito la capacidad para observar simultáneamente más de un objeto. Durante el período de trabajo se realizaron cuatro tareas principales para posibilitar el funcionamiento del sistema desarrollado. Estas consistieron en: (i) implementación de un detector de faros basado en el análisis de los puntos característicos de las regiones de color,(ii) habilitación en el simulador HL-Sim de la posibilidad de observar gráficamente las poses de los objetos presentes en el mapa local del robot, (iii) implementación de la funcionalidad de realizar seguimiento por posición, la que además contó con la capacidad de planificar trayectorias para la cabeza que consideren objetos extras durante el desplazamiento y de realizar seguimiento basado en la función de distribución de probabilidad de la ubicación del objeto, (iv) implementación de un algoritmo para discernir qué elementos observar, junto con la capacidad para observarlos. Los resultados obtenidos muestran en el perceptor de faros una alta tasa detecciones correctas (92,76%) y a la vez una baja tasa de falsos positivos (1,1%), lo cual corresponde a un resultado satisfactorio. En la rutina de seguimiento, se observó coherencia entre el seguimiento por posición y el seguimiento visual (diferencia angular del orden de 1 a 3 grados), además de evidenciar el correcto funcionamiento de las capacidades implementadas. Por último, en la rutina de visión activa los resultados y el comportamiento observado, revelan un correcto funcionamiento bajo un espacio de acciones en el que se consideran posibles la observación de objetos individualmente o en forma grupal. En conclusión, los resultados obtenidos revelan el buen funcionamiento de los métodos y algoritmos propuestos. Particularmente, el sistema implementado para la selección de los objetos a observar, a pesar de no mostrar una tendencia clara respecto a la reducción de la incerteza, permitió generar observaciones de diferentes objetos o grupos de estos, lo que resulta positivo para el sistema pues genera un mayor flujo de información que ingresa a éste.
44

Paralelización y Comparación entre Algoritmos para el Cálculo de Distribución de Tamaños de Burbujas Vía Análisis de Imágenes

Garrido Rodríguez, Felipe Andrés January 2011 (has links)
No description available.
45

Detección de calzada para un vehículo autónomo

Bernuy Bahamondez, Fernando Javier January 2011 (has links)
No description available.
46

Optimización de proceso de detección de partículas a partir de imágenes de video mediante paralelización

Silva Leal, Juan Sebastián January 2012 (has links)
Ingeniero Civil en Computación / La detección de objetos a partir de imágenes se ha convertido en una herramienta muy poderosa para diferentes disciplinas. El Laboratorio de Materia Fuera del Equilibrio del Departamento de Física de la Facultad cuenta con una implementación en C del Método χ^2 usando bibliotecas ad-hoc compatibles con Mac OSX para detectar partículas en sistemas granulares cuasi-bidimensionales compuestos por miles de partículas de acero de 1 mm de diámetro, pudiendo detectar partículas en una imagen de 1 MegaPixel en alrededor de 10 segundos. Sin embargo, estas imágenes provienen de videos que se desean analizar y en una sesión de trabajo se puede requerir analizar alrededor de unas 100.000 imágenes en total, por lo cual el procesamiento y posterior análisis de estas imágenes de video tiene una duración de varios días. Es por esto que fue necesario agilizar de alguna manera este procesamiento de imágenes y generar una solución robusta. El objetivo principal de la memoria consistió en reducir los tiempos de detección de partículas generando un nuevo software basado en el anterior, facilitando extensiones futuras, y utilizando el máximo poder de cómputo disponible en el laboratorio. El alumno ideó como solución un sistema distribuido haciendo uso de todos los computadores disponibles para el procesamiento de imágenes, reimplementando el código del software, en ese entonces utilizado, de C a C++ utilizando patrones de diseño para facilitar futuras extensiones del software y threads con el fin de aumentar el rendimiento de este. También se agregó tecnología CUDA para el procesamiento de datos reduciendo de forma considerable los tiempos de ejecución. Como resultado final de la memoria, se logró obtener un speedup de alrededor de 5x haciendo uso de distribución de carga computacional, uso de procesos en paralelo, hilos de ejecución y tecnología CUDA, además se logró una solución más robusta y extensible para futuros cambios o generación de nuevos algoritmos de procesamiento. Todo el proceso de investigación, desde la obtención de datos hasta la validación de la hipótesis, lleva mucho tiempo, en donde la detección de partículas es solo una parte de todo el calculo computacional que se debe realizar, por lo que se aconseja implementar en lenguajes no interpretados y más rápidos, como por ejemplo C++, otras etapas de cálculo de datos y además, en lo posible, distribuir el computo y usar CUDA.
47

Segmentación de iris en imágenes digitales en condiciones reales con oclusiones de pestañas y parpados

Contreras Schneider, Daniel Alfonso January 2012 (has links)
Ingeniero Civil Electricista / El reconocimiento de personas ha sido un área de estudio importante en el último siglo y se ha intentado utilizar todos los rasgos característicos humanos posibles para este propósito, dando paso a la ciencia de la biometría. En el último tiempo se han desarrollado varios trabajos que utilizan el iris como medida biométrica, lo que se ha visto posibilitado gracias al avance de la tecnología relacionada a la fotografía digital. Un sistema de reconocimiento de iris se compone de tres procesos esenciales: adquisición de imagen, segmentación del iris y clasificación del sujeto. La gran mayoría del estudio del iris se ha realizado utilizando imágenes adquiridas bajo condiciones muy ideales de iluminación y cooperación del usuario. Sin embargo en los últimos años esto se ha ampliado a considerar condiciones más reales de trabajo. Este trabajo tiene como objetivo el diseño de un método de segmentación de iris, que considere condiciones menos cooperativas. El método desarrollado se divide en seis procesos que se enfocan en segmentar diferentes secciones del ojo dentro de la imagen. Primero se eliminan todos los reflejos especulares que puedan haber y se busca la ubicación del centro del iris en la imagen. Luego se segmentan el límite límbico y la pupila, aprovechando su forma normalmente circular, finalizando con la segmentación del párpado y las pestañas. El resultado es una máscara binaria que muestra la posición del iris dentro de la imagen de entrada. Se utiliza la base de datos UBIRIS v.2 para el diseño y prueba de este método. Calculando la cantidad de pixeles mal detectados (FP+FN) sobre la cantidad total de pixeles de la imagen, se obtiene un error promedio de 1,68%. Mientras que a partir del promedio de los valores de FPR y FNR de cada imagen, el error se establece en 10%. Estos resultados son comparables con las mejores publicaciones enviadas al concurso NICE.I relativo al mismo tema. Un promedio de 2[s] requiere el algoritmo en procesar cada imagen, lo que permite creer que podrá ser utilizado en situaciones de tiempo real como parte de un sistema de reconocimiento automático de iris.
48

Analysis and development of multi-frame super-resolution algorithms for astronomical images

Caro Arias, Fernando Ignacio January 2016 (has links)
Magíster en Ciencias, Mención Computación / Ingeniero Civil en Computación / En esta tesis se aborda el problema de analizar el rendimiento de cuatro algoritmos de super-resolución multi-imagen cuando éstos son usados para recuperar imágenes astronómicas de alta resolución. Super-resolución multi-imagen es el nombre dado a los procesos que usan un conjunto de imágenes de baja resolución de una misma escena para obtener una nueva imagen con mayor resolución espacial, además de menos desenfoque y ruido, que cualquiera de las imágenes utilizadas como input. Estos algoritmos funcionan mediante la minimización de una función de costo, donde un prior es incluido para regularizar el proceso de reconstrucción, usando para ello un procedimiento de optimización basado en el cálculo del gradiente. Cada uno de los cuatro algoritmos desarrollados corresponde a una de las cuatro posibles combinaciones entre dos priors (Laplaciano y gradiente) para la función de costo y dos mecanismos para calcular su gradiente (la expresión analítica de dicho gradiente y la aproximación de Zomet). El principal objetivo de esta investigación consiste en estudiar el comportamiento del rendimiento de estos algoritmos en función de la Razón Señal-a-Ruido (SNR) de la imágenes de baja resolución empleadas como input en el proceso de reconstrucción. Para lograr este objetivo se requiere hacer uso de simulaciones, ya que se necesitan conjuntos de imágenes de baja resolución caracterizados por distintos valores de SNR para testear el funcionamiento de los cuatro algoritmos. Las imágenes simuladas fueron obtenidas usando dos herramientas de simulación, una basada en la replicación del proceso mediante el cual una imagen es adquirida por un dispositivo y que se conoce como Modelo de Observación de Imágenes (IOM), y otra basada en un enfoque de Monte Carlo y cuyo nombre es PhoSim. Considerando un rango de siete valores de SNR, muestreados en intervalos regulares entre 1 y 100 con una escala logarítmica, y usando un grupo de 100 templates de alta-resolución, se generaron 700 conjuntos, compuesto cada uno por 10 imágenes simuladas de baja resolución, utilizando para ello las dos herramientas de simulación previamente mencionadas. Luego, cada uno de los cuatro algoritmos fue empleado para reconstruir una imagen de alta resolución usando cada uno de estos conjuntos como input. El experimento descrito se llevó a cabo en dos instancias, primero usando registro afín para alinear las imágenes de baja resolución contenidas en cada conjunto utilizado como input, y luego utilizando registro cuadrático para cumplir dicha tarea. El rendimiento de los algoritmos fue evaluado, luego de realizar estos experimentos, usando como métricas el Peak de la Razón Señal-a-Ruido (PSNR) y el χ² reducido. De acuerdo a los resultados obtenidos, para cada uno de los algoritmos el PSNR aumenta a medida que la SNR crece, mientras que el χ² reducido se mantiene relativamente constante independientemente de la SNR. Los resultados correspondientes al PSNR sugieren que para valores pequeños de la SNR la aproximación de Zomet y el prior Laplaciano representan la mejor opción, mientras que para valores altos de la SNR la expresión analítica del gradiente junto al prior gradiente son la mejor opción, aunque, en este caso, por un margen estrecho. La magnitud de la disminución de rendimiento que se observa cuando los parámetros de registro y desenfoque son estimados es mayor cuando se usa PhoSim que cuando se usa el IOM. La utilización de diferentes procedimientos de registro no implicó variaciones significativas en el rendimiento de los cuatro algoritmos de super-resolución multi-imagen.
49

Evaluación de estrategias de fusión para un sistema de identificación de personas multimodal utilizando imágenes de rostro y zona periocular

Smith Albornoz, Felipe Eduardo January 2015 (has links)
Ingeniero Civil Eléctrico / La biometría corresponde al estudio de medidas en base a diferentes características humanas, tales como huellas digitales, iris, rostro y voz, entre otros. Un gran campo de aplicación de esta corresponde al reconocimiento de rostro para seguridad y control de identidad. Recientemente, se han realizado estudios que indican que la zona peri-ocular, segmento que rodea al ojo, puede ser usado en un sistema de reconocimiento con buenos resultados. Este trabajo de título propone como objetivo estudiar la fusión de información entre dos sistemas de reconocimiento, basado en imágenes de rostro e imágenes de zona peri-ocular, a nivel de características, puntaje y decisión. Para ello se usan las bases de datos AT&T de rostro y una base propia de imágenes de zona peri-ocular pertenecientes al laboratorio de procesamiento de imágenes del Departamento de Ingeniería Eléctrica de la Universidad de Chile. Se implementan sistemas de reconocimiento basándose en 3 métodos de extracción de características diferentes, PCA, LDA y LBP, en C++ utilizando la librería FaceRecognizer de OpenCV. Se implementa además un sistema de fusión para cada nivel de información: característica, puntaje y decisión. Se realizan pruebas de desempeño a los sistemas de reconocimiento de forma individual, fusionados por nivel e integrados totalmente y se comparan mediante el área bajo la curva ROC y la curva de Precision-Recall. Se crea además un sistema fusionado por puntaje válido y moda de decisión llegando a un 98.57% de clasificación correcta. Finalmente se concluye que el mejor tipo de fusión es en el nivel de decisión, considerando el costo computacional de los algoritmos, y se entregan detalles sobre las direcciones a seguir en una posible investigación futura.
50

Identificación de modos de vibración con un sistema de correlación digital de imágenes de alta velocidad (High Speed 3D DIC)

Pacheco Román, Ricardo Alfredo January 2018 (has links)
Ingeniero Civil Mecánico / Este trabajo consiste en cuantificar el ruido experimental a partir de mediciones de modos de vibración obtenidas a través de un sistema de correlación digital de imágenes. Esto último con el fin de generar una metodología de identificación de los mismos tal que el ruido sea mínimo. Los objetos a medir son placas curvas fabricadas con una estructura tipo sandwich de fibra de carbono y un núcleo tipo NOMEX , todas de las mismas dimensiones y sin delaminación. Este proceso es necesario debido a que para estudiar fenómenos más complejos se requiere de una mayor precisión en las mediciones. Esta memoria de título se enmarca dentro de un proyecto cuyo objetivo final es detectar localización y magnitud del daño en placas de material compuesto, por lo que la metodología desarrollada a lo largo de este trabajo establece una base mediante la cual se espera obtener resultados óptimos a futuro. La primera parte de este trabajo consiste en una revisión de la bibliografía pertinente para poder determinar los parámetros entre los que se realiza la comparación, identificar frecuencias naturales de cada placa y excitarlas para poder grabarlas mediante un sistema de correlación digital de imágenes de alta velocidad. Luego, se procesan estos datos para obtener los desplazamientos de cada una de las mediciones, suavizar los modos, lo que se realiza utilizando Procesos Gaussianos, como una manera de encontrar una función continua que represente represente la forma del modo como un continuo de funciones en 3D, y calcular el ruido como la diferencia entre el modo suavizado y los valores medidos. Finalmente, se analizan estos datos estadísticamente obteniendo resultados comparables y seleccionando la metodología. Al evaluar los tres diferentes patrones, para los primeros cuatro modos de vibración y con tres diferentes tamaños de facet, se concluye lo siguiente: el primer patrón es el más efectivo a la hora de disminuir el ruido y es el que presenta menos complicaciones al momento de calibrar, al permitir una mejor identificación por parte de las cámaras. No se observa una relación entre los errores y la frecuencia de los modos de vibración. Por último, a mayor tamaño del facet, se disminuye el error promedio y la cantidad de cuadros no identificados / Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1170535

Page generated in 0.1329 seconds