• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 16
  • Tagged with
  • 74
  • 74
  • 19
  • 17
  • 16
  • 15
  • 13
  • 12
  • 10
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Estudio de la representación 3D de regiones del iris a partir de imágenes digitales bidimensionales

Bastías Grunwald, Diego January 2016 (has links)
Ingeniero Civil Eléctrico / Actualmente se utilizan diversos métodos de reconocimiento de individuos mediante la biometría, es decir, identificando patrones de características físicas o de comportamiento. Específicamente la biometría basada en el iris es ampliamente usada en el mundo, por ejemplo en reconocimiento de ciudadanos o control fronterizo. Sin embargo, hoy en día se utilizan imágenes bidimensionales del iris para extraer la información de éste. En este trabajo se propone utilizar información tridimensional del iris, para lo que se construirá un modelo 3D a partir de un conjunto de imágenes bidimensionales del ojo. En primer lugar, se realizó la construcción de un sistema de captura de imágenes bidimensionales del ojo desde diferentes ángulos, utilizando como hardware del sistema un computador, un computador de placa reducida Raspberry Pi y una cámara Raspberry Pi NoIR. Además, se diseñó e implementó una estructura de soporte que permite la toma de imágenes desde diferentes ángulos, con una iluminación y encuadre adecuados para enfocar el iris a corta distancia. El montaje experimental permitió además eliminar el reflejo de las fuentes luminosas sobre el iris. Luego se tomaron 17 imágenes de un ojo, abarcando un arco de encuadre de 40°. A continuación se procesaron las imágenes capturadas para permitir la generación de modelos 3D. Se incluyó en el procesamiento: encuadre del iris, borrado de la pupila, ecualización del histograma y suavizado gaussiano. Fue posible determinar que la mejor secuencia para la construcción del modelo 3D incluyó encuadre, suavizado gaussiano, borrado de pupila y ecualización. Finalmente, se construyeron los modelos tridimensionales utilizando el software Python Photogrametry Toolbox. Con el objetivo de mejorar los resultados se variaron parámetros de entrada del algoritmo, tales como, el número de imágenes y el CCD width (ancho del sensor de la cámara). De lo que se concluyó que con 6 imágenes y un CCD width igual a 3, se obtiene un modelo del iris bien formado en el que se aprecian texturas y patrones. Por otra parte, se analizó la capacidad de generalización del método, capturando y modelando 12 nuevos conjuntos de imágenes del iris. Concluyendo que el método funciona de forma parcial con conjuntos de imágenes nuevos, y por tanto debe ser mejorado en términos de su capacidad de generalización. En base a la revisión bibliográfica se concluye que este es el primer sistema desarrollado que permite generar un modelo 3D del iris a partir de imágenes 2D de este. Los modelos resultantes pueden ser mejorados, ya que presentan ruido y este podría ser eliminado mediante la aplicación de un filtro gaussiano tridimensional, la utilización de un equipo fotográfico de mejores características, o el uso de múltiples cámaras.
12

Estudio de técnicas de compresión de imágenes astronómicas

Valenzuela León, César Fernando January 2013 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Esta tesis presenta un estudio acerca de la compresión, con pérdidas, de imágenes astronómicas mediante el estándar JPEG2000. La principal motivación de esta investigación surge al comparar los desempeños de compresión para diversas morfologías de imágenes, se observa que para una misma tasa de bits, el nivel de PSNR de las imágenes naturales es mayor que el de las imágenes astronómicas, es decir la compresión de dichas imágenes presenta menos pérdidas. Debido a esto, es necesario realizar ajustes sobre JPEG2000 de manera que ambos desempeños puedan equipararse. El primer enfoque utilizado se basa en la implementación de la wavelet Haar, aquella de mayor compresibilidad sobre imágenes astronómicas, en JPEG2000. Sin embargo, al realizar esta modificación se aprecia que los resultados obtenidos no son mejores a los que proporciona la versión original del estándar, con la base CDF 9/7. A partir del análisis de dependencias intraescala en el dominio Wavelet, se logra verificar que la característica que tiene mayor repercusión en el desempeño de la compresión es la presencia de estructura. Razón que explica el por qué la base CDF 9/7, a pesar de no presentar mejor compresibilidad que la base de Haar, permite alcanzar mejores niveles de compresión. Finalmente, se propone dividir las imágenes astronómicas en dos partes: "Background" y "Cartoon", esta última contiene los pixeles de mayor intensidad y al ser una señal sparse, es decir con muy pocos coeficientes distintos a cero, su alto nivel compresibilidad en base de Haar (reconstrucción perfecta con aproximadamente un 20% de coeficientes) permite soslayar la carencia de estructura. La compresión del "Cartoon"', mediante JPEG2000 con la base de Haar, entrega resultados superiores a los obtenidos por la base CDF 9/7, por lo que se puede concluir que este enfoque puede ser aprovechado en aplicaciones que puedan prescindir de la totalidad de los pixeles y que hagan énfasis en aquellos valores más significativos. La investigación presentada en esta memoria complementa los resultados encontrados en la literatura y abre una nueva línea que deberá seguir siendo explorada en el futuro.
13

Content-based video copy detection

Barrios Núñez, Juan Manuel January 2013 (has links)
Doctor en Ciencias, Mención Computación / La cantidad y el uso de videos en Internet ha aumentado exponencialmente durante los últimos años. La investigación académica en tópicos de videos se ha desarrollado durante décadas, sin embargo la actual ubicuidad de los videos presiona por el desarrollo de nuevos y mejores algoritmos. Actualmente existen variadas necesidades por satisfacer y muchos problemas abiertos que requieren de investigación científica. En particular, la Detección de Copias de Video (DCV) aborda la necesidad de buscar los videos que son copia de un documento original. El proceso de detección compara el contenido de los videos en forma robusta a diferentes transformaciones audiovisuales. Esta tesis presenta un sistema de DCV llamado P-VCD, el cual utiliza algoritmos y técnicas novedosas para lograr alta efectividad y eficiencia. Esta tesis se divide en dos partes. La primera parte se enfoca en el estado del arte, donde se revisan técnicas comunes de procesamiento de imágenes y búsqueda por similitud, se analiza la definición y alcance de la DCV, y se presentan técnicas actuales para resolver este problema. La segunda parte de esta tesis detalla el trabajo realizado y sus contribuciones al estado del arte, analizando cada una de las tareas que componen esta solución, a saber: preprocesamiento de videos, segmentación de videos, extracción de características, búsqueda por similitud y localización de copias. En relación a la efectividad, se desarrollan las ideas de normalización de calidad de videos, descripción múltiple de contenidos, combinación de distancias, y uso de distancias métricas versus no-métricas. Como resultado se proponen las técnicas de creación automática de descriptores espacio-temporales a partir de descriptores de fotogramas, descriptores de audio combinables con descriptores visuales, selección automática de pesos, y distancia espacio-temporal para combinación de descriptores. En relación a la eficiencia, se desarrollan los enfoques de espacios métricos y tabla de pivotes para acelerar las búsquedas. Como resultado se proponen una búsqueda aproximada utilizando objetos pivotes para estimar y descartar distancias, búsquedas multimodales en grandes colecciones, y un índice que explota la similitud entre objetos de consulta consecutivos. Esta tesis ha sido evaluada usando la colección MUSCLE-VCD-2007 y participando en las evaluaciones TRECVID 2010 y 2011. El desempeño logrado en estas evaluaciones es satisfactorio. En el caso de MUSCLE-VCD-2007 se supera el mejor resultado publicado para esa colección, logrando la máxima efectividad posible, mientras que en el caso de TRECVID se obtiene una performance competitiva con otros sistemas del estado del arte.
14

On the analysis of decision problems in astrometry and hypothesis testing

Espinosa Trujillo, Sebastián Andrés January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / La teoría de la información surgió gracias al trabajo realizado por Claude E. Shannon: ``A Mathematical Theory of Communication'', donde se modela y caracteriza el desempeño óptimo de los sistemas de comunicación digitales. La idea básica es la transmisión de información mediante un canal que introduce incertidumbre en la comunicación. La señal llega a un receptor que debe decodificar la información de forma confiable en el sentido de probabilidad de error. Estableciendo una conexión con problemas de inferencia estadística, vemos que están estrechamente conectados. Ambos problemas se encargan de trabajar con observaciones y la información contenida en ellos. El objetivo final es tomar una decisión correcta basada en las observaciones. El término decisión correcta implica establecer métricas de desempeño. La teoría de la información cumple un rol muy importante al establecer límites fundamentales para problemas de decisión estadísticos, es por esto que esta tesis hace uso de las herramientas en estadística y teoría de la información para resolver dos problemas de inferencia, en el contexto de la astronomía y detección con restricción de tasa. La primera parte de la tesis, estudia los límites fundamentales en astrometría. El foco del trabajo es estudiar la alcanzabilidad de los límites fundamentales con estimadores prácticos. El trabajo propone cotas de desempeño para estimadores clásicos (máxima verosimilitud y mínimos cuadrados) con estos resultados se verifica numéricamente la optimalidad del estimador de máxima verosimilitud en el sentido que éste alcanza la cota de Cramer-Rao en un gran espectro de regimenes observacionales. La segunda parte de la tesis propone una cota alcanzable del error asociado al problema de detección en un contexto de hipótesis bivariado cuando una de las fuentes es transmitida con restricciones en la tasa. Este problema radica en establecer velocidades de convergencia para el error de tipo II sujeto a un error de tipo I prescrito y cuando se tiene información limitada de una de las fuentes. Para ello este trabajo establece cotas para la discrepancia que existe entre el límite fundamental asintótico y una expresión no asintótica derivada como parte de éste trabajo.
15

Comparación de algoritmos de cálculo del Skeleton y su aplicación en biología

Lavado Abarzúa, Alejandro Andrés January 2018 (has links)
Magíster en Ciencias, Mención Computación. Ingeniero Civil en Computación / Los algoritmos de cálculo del skeleton son una herramienta computacional de amplia utilización en el procesamiento de imágenes y volúmenes médicos y biológicos. Se trata de procedimientos que reducen una figura a un conjunto de líneas que pasan por su centro. El skeleton de una figura puede ser calculado siguiendo estrategias muy diferentes. Debido a esto, cada algoritmo de cálculo del skeleton puede producir un resultado muy distinto a los demás algoritmos. Ahora bien, cuando se está trabajando en una aplicación donde se requiere el skeleton, ¿cómo elegir el mejor algoritmo para calcularlo? En esta tesis se proponen métricas originadas en el análisis morfológico de estructuras biológicas para responder cuantitativamente a la pregunta anterior, como el largo total del skeleton, su número de nodos y sus ángulos de bifurcación. Estas métricas permiten caracterizar numéricamente un skeleton y compararlo con otros. De esta manera, el mejor algoritmo para una aplicación en específico puede ser seleccionado en base a los valores de las métricas relevantes para esa aplicación. Para demostrar la efectividad de estas métricas, se implementaron tres algoritmos de cálculo del skeleton basados en principios teóricos distintos: adelgazamiento topológico, cálculo del skeleton basado en la divergencia y cálculo del skeleton basado en la distancia. Estos algoritmos, más un cuarto basado en contracción de mallas, fueron utilizados para calcular los skeletons de modelos biológicos simulados y reales. Los skeletons de modelos simulados permitieron medir la desviación de cada algoritmo con respecto al valor ideal de cada métrica, revelando diferencias significativas en algunos casos. Ejemplo de esto es la métrica del largo total en estructuras tipo neurona: el cálculo del skeleton por contracción de mallas produce una estructura significativamente más corta que el skeleton calculado mediante un algoritmo basado en la distancia, cuyo largo total es cercano al real. Sin embargo, el algoritmo de contracción de mallas resulta más apropiado para calcular los ángulos de bifurcación. Por último, las métricas para skeletons de modelos reales ilustraron marcadas diferencias entre los resultados producidos por cada algoritmo para la misma figura. / Parcialmente financiado por el Fondo Nacional de Desarrollo Científico y Tecnológico (FONDECYT 11161033), el Instituto Milenio de Neurociencias Biomédicas - BNI (P09-015-F) y la iniciativa Anillo (ACT1402)
16

Reconocimiento de huellas dactilares usando la cámara de un dispositivo móvil

Valdés González, Felipe Manuel January 2015 (has links)
Ingeniero Civil Electricista / La seguridad es un aspecto siempre presente en la vida cotidiana, ya sea como parte del ámbito laboral o de los propios hogares, en cualquier situación donde exista un flujo de información personal. Dentro de la amplia gama de sistemas basados en la determinación o confirmación de la identidad de una persona, se encuentran los que hacen uso del reconocimiento biométrico, es decir, emplean características fisiológicas, siendo una de las más utilizadas la biometría dactilar. Por otro lado, los avances de la tecnología de los dispositivos móviles, permiten que cada persona pueda disponer de una poderosa herramienta que podría ser usada para ser parte de un sistema de reconocimiento o verificación de identidad. En este contexto, el objetivo general de este trabajo de título corresponde a estudiar, diseñar e implementar un sistema capaz de usar la cámara de un dispositivo móvil como sensor biométrico, adquiriendo imágenes de dedos y analizándolas para reconocer su huella dactilar y extraer las características necesarias para la identificación o verificación de la identidad de una persona. Se implementa, en un Smarth Phone marca Huawei, modelo G-Play Mini, con Sistema Operativo Android, el cual cuenta con una cámara de 13 M.P. y una capacidad de enfoque adecuada, las etapas de: adquisición de imágenes; reconocimiento de la presencia del dedo; segmentación del objeto de interés; corrección de su pose; determinación de área factible de extraer una huella dactilar; y verificación de la calidad de la captura. En el entorno Matlab se desarrollan las etapas posteriores del sistema, correspondientes a la obtención de la huella dactilar a partir de la imagen capturada y verificada previamente, y la extracción de puntos característicos o minucias. Adicionalmente, se lleva a cabo una comparación de huellas dactilares en base a la transformada SIFT. Los resultados son presentados en base a la realización de pruebas ad hoc a cada etapa y a la construcción de una colección de huellas obtenidas mediante el algoritmo implementado. El estudio resulta positivo, pudiéndose extraer huellas dactilares y sus características a partir de imágenes de dedos. Se concluye que el análisis de color de la imagen aplicando un filtro de piel resulta efectivo para la detección del área de interés; que la valoración de la calidad de la imagen es un paso fundamental para la extracción de una huella; que la aplicación del algoritmo filtro de coherencia permite obtener la huella dactilar; y que es posible extraer características que permitan el reconocimiento o verificación de identidad. Además, se sientan las bases para un trabajo futuro con miras al desafío de mejorar cada etapa logrando un proceso más robusto ajustándose a distintas condiciones y su desarrollo por completo en un dispositivo móvil.
17

Transmisión inalámbrica de imágenes médicas para un ecógrafo ultra-portátil

Hasbún Avendaño, Nicolás Ignacio January 2018 (has links)
Ingeniero Civil Eléctrico / 23/07/2023
18

Detección e identificación automática de patentes de automóviles

Castro, Daniel, Fillia, Osvaldo, Diez, Mauro January 1999 (has links)
No description available.
19

PAN: Pantalla Análoga Nacional : diseño de un dispositivo de reproducción de imágenes sincronizadas al sonido, por medio de circuitos de baja tecnología

Bugueño Zúñiga, David January 2012 (has links)
Diseñador Gráfico / A lo largo de la historia de la comunicación el diseñador gráfico ha cumplido un rol importante dentro de la selección, producción e innovación en los soportes de reproducción de imágenes. Estos avances han quedado registrados en la obra de colectivos y movimientos intelectuales con grandes aportes en la estética y en la técnica gráfica. La labor del diseñador ha ido cayendo en un espiral donde cada vez pierde más influencia sobre el imaginario visual, la tecnología y los procesos sociales, lo que nos lleva a cuestionar el verdadero sentido de la profesión y el origen de esta desvinculación de sus raíces. La mercadotecnia y el uso de los medios de comunicación de masas son parte importante y un ejemplo claro de cómo han disminuido las posibilidades de innovación técnica, silenciando discusiones teóricas y relegando el trabajo del diseñador a un rol superficial y cíclico donde la tecnología pasa a ser una limitante creativa más que un factor de proyectación accesible. Buscando antecedentes dentro de la teoría del diseño y disciplinas sociales como la economía, filosofía y estética, se buscan espacios y oportunidades para la utilización de metodologías y medios alternativos de acceso democrático, que permitan la reproducción de imágenes utilizando la tecnología de manera abierta, libre y cooperativa. De esta investigación se extraen elementos para esbozar una metodología de trabajo mediante la cual coordinar un grupo dirigido a la creación de hardware libre, en la convergencia entre el arte y la tecnología, para trabajar en proyectos visuales en apoyo a colectivos de arte independiente. El proceso finaliza con un objeto interactivo que mezcla crítica teórica y práctica aplicada. Es también un punto de partida del colectivo y un producto del proceso de titulación. Esta instalación debe representar el estilo horizontal de la organización, las metodologías abiertas y la crítica al sistema de producción realizadas en la fase de investigación.
20

Generación de mapas de profundidad a partir de imágenes estéreo utilizando registro no rígido

Calderón Saavedra, Daniel Sebastián January 2012 (has links)
Ingeniero Civil Electricista / El presente trabajo trata sobre la aplicación de registro no rígido al caso de imágenes estéreo con el fin de generar un mapa de profundidad. En particular, la correspondencia entre las dos imágenes se describe como solución de una ecuación diferencial cuyos parámetros son determinados a través de un problema de optimización. El proceso completo requiere etapas previas de calibración, rectificación y preparación de las imágenes, las que se implementan sobre la librería OpenCV. Se incluyen además los conceptos teóricos que se encuentran detrás de cada subproceso. Una vez que las imágenes son rectificadas, se procesan fila por fila, adquiriéndose un enfoque unidimensional. El registro no rígido se efectúa mediante el cálculo de una transformación espacial difeomórfica $\phi$, capaz de deformar de manera no lineal una de las imágenes para que iguale a la otra. En particular, $\phi$ es la solución de la ecuación diferencial ordinaria no lineal $d_{t}\phi\left(x,t\right)=v\left(\phi(x,t)\right)$, donde se desconoce el campo vectorial $v$, el cual se determina utilizando el método del gradiente para minimizar un funcional con componentes de similitud y regularización. Se adopta el esquema Forward Euler Method, es decir, primero se calcula $v$, y luego $\phi$, utilizando la relación $\phi\left(x,t+dt\right)=\phi\left(x,t\right)+v\left(\phi\left(x,t\right)\right)dt$. Tanto las imágenes como el campo vectorial son tratados de forma continua utilizando B-splines unidimensionales. La elección radica en sus características interpoladoras y de soporte compacto, dado que solo se esperan deformaciones locales. De esta forma, los parámetros a determinar en el problema son los coeficientes $a\left[i\right]$, que definen el campo $v\left(x\right)=\sum_{i}a\left[i\right]\beta^{n}\left(x-i\right)$. Una vez obtenido el difeomorfismo, es directo el cálculo del mapa de disparidad, pues se cumple que $d=\phi-x$. Y posteriormente, al añadir los parámetros de la cámara estéreo, es posible generar el mapa de profundidad con la ecuación $Z=\frac{fT}{d}$ (en el caso de alineación binocular). La estrategia de solución demuestra ser útil en casos con objetos de superficies suaves y sin necesidad de pronunciados gradientes de intensidad del nivel de gris, destacando sobre alternativas más tradicionales, que se enfocan básicamente en correspondencias de puntos característicos. El caso de imágenes generales, con combinaciones de zonas de gradientes suaves y pronunciados, no es resuelto completamente, restando abordar problemas de oclusiones, diferencias en los bordes de las imágenes, tiempo de cómputo, y exceso de suavidad en la función de deformación. El trabajo constituye un primer acercamiento a un nuevo enfoque continuo, por lo que se proponen variantes que puedan generar mejores resultados.

Page generated in 0.1661 seconds