Spelling suggestions: "subject:"atécnicas digitales"" "subject:"etécnicas digitales""
1 |
Diseño e implementación de un espectrómetro de alta resolución basado en FPGA para análisis de señales radioastronómicoSapunar Opazo, Raúl Ignacio January 2015 (has links)
Ingeniero Civil Eléctrico / Un espectrómetro de alta resolución se usa en radioastronomía para observar espectros de nubes moleculares de dinámica compleja con un amplio rango de velocidades. Dicho instrumento corresponde a un tipo de Back End, el cual es el último componente electrónico de la cadena en un radiotelescopio y está encargado de procesar la señal proveniente de las fuentes astronómicas para obtener la información deseada. El estado del arte en esta materia consiste en utilizar técnicas digitales para procesar los datos, debido a la estabilidad de las mediciones y buen rendimiento que estas permiten.
En este trabajo se presenta el diseño e implementación de un espectrómetro digital de transformada de Fourier rápida (FFT), de alta resolución espectral, utilizando una plataforma ROACH 2, la cual está basada en un chip FPGA (Field Programmable Gate Array) y está equipada con ADCs (Analog-to-digital coverters) de alta velocidad.
Como metodología de diseño, se propone maximizar el uso de recursos del hardware para obtener el mayor número de canales espectrales posibles para un ancho de banda no menor a 1,5 GHz, manteniendo un alto rango dinámico. Para lograr el correcto funcionamiento del espectrómetro a altas velocidades se aplicaron técnicas de localización física de recursos (floorplanning) en el FPGA. Se presenta también una metodología de calibración de los ADCs, los cuales poseen cuatro núcleos que en conjunto muestrean a una tasa máxima de 5 GSps.
El mejor desempeño se obtuvo con un espectrómetro de 1,8 GHz y 32768 canales, es decir con una resolución espectral de 54,9 kHz. Éste posee un rango dinámico libre de espurios (SFDR) superior a 42 dB en toda la banda con caídas a 39 dB en frecuencias puntuales. El aumento de resolución espectral se ve limitado principalmente por problemas de sincronización (timing) en el circuito y por la cantidad de memoria disponible.
Como trabajo futuro se propone explorar distintas técnicas para optimizar el uso de recursos del FPGA y así aumentar aún más la resolución espectral del espectrómetro. Ejemplos de estas técnicas son modificaciones de diseño que permitan el uso eficiente de memorias y la reducción de operaciones matemáticas necesarias. También se presenta un cambio mayor en el diseño del espectrómetro, el cual implementa una forma distinta para calcular la FFT y permitiría reducir enormemente el número de memorias utilizadas por esta, logrando llegar a 1 millón de canales espectrales.
|
2 |
El modo de imaginar de los aparatos : fotografía e imagen digitalYáñez Tapia, Guillermo January 2017 (has links)
Doctorado en filosofía, mención estética y teoría del arte / En torno a las imágenes generadas por aparato se han visto elaborar, prác-ticamente desde la irrupción de la fotografía, una serie de aproximaciones que han intentado dar respuesta a la peculiaridad de cada uno de esos tipos de imágenes. Casi todas ellas elaboraban acercamientos que dejaban fuera una descripción filosófica de los aparatos mismos que la generaban para concentrarse, principalmente, en el contenido de las imágenes. La cuestión más simple y directa de la experiencia con las imágenes pasaba por alto la cuestión de que esas imágenes eran el resultado de un proceso simple –si consideramos la versión breve que activamos la cámara y obtenemos un resultado (in-out), la imagen–, pero con un complejidad no abordada, a nuestro entender, de manera suficiente. Dado dicho estado de cosas, en este trabajo se intenta realizar una construcción conceptual para una defini-ción filosófica de lo que ocurre en los aparatos. Se han pensado –imaginado– los distintos conceptos en base a los elementos mismos que encontramos en los aparatos al momento de generar un registro desde don-de elaborar imágenes: su resultado (Imagen aparato); el productor de dicho resultado (Aparato); la luz, su registro y su reproductibilidad (Administración de lo lumínico); el sentido que damos a cada tipo de imagen generado por cada uno de los aparatos (Noimagen) y finalmente, lo que imaginamos en cada imagen gracias a cada aparato (Modos de imaginar). El resultado es –en su intento– un mapa filosófico para aproximar una explicación de las imá-genes aparato –que concentra su análisis en el aparato fotográfico y en el aparato digital– que pareciera dejar abierto campos para avanzar en un ma-pa filosófico de la imagen en un sentido más amplio.
|
3 |
Algunos resultados teóricos y numéricos en procesamiento de imágenes digitalesGodoy Campbell, Matías Maximiliano January 2013 (has links)
Ingeniero Civil Matemático / El objetivo principal del presente trabajo es el estudio, tanto teórico como numérico, de métodos de procesamiento de imágenes orientados al área de las señales e imágenes con texturas.
Se comienza con una revisión de conceptos básicos tanto en procesamiento de imágenes, como en herramientas matemáticas de interés, se exploran trabajos previos que motivan buena parte de esta memoria.
En particular los trabajos de filtros no locales, formulados por Buades en 2005 y los funcionales no locales del tipo Mumford-Shah, formulados por Jung et al. en 2011, además de varios trabajos clásicos del área del cálculo de variaciones ligados al procesamiento de imágenes. Más adelante, se explora en detalle el problema de segmentación, estableciendo una definición concreta y ejemplos de aplicación, presentando luego el funcional de Mumford-Shah. Se analiza la limitación de este funcional desde el punto de vista numérico para realizar segmentación y por esto se introduce el funcional de Ambrosio-Tortorelli, donde destacan sus resultados más importantes, en particular la $\Gamma$-convergencia al funcional de Mumford-Shah relajado.
Como desarrollo central, se trabajó el problema de segmentación no local, considerando el funcional planteando por Jung et al. en 2011. Se prueba que en el caso unidimensional el funcional no es adecuado en el sentido del Gamma-límite obtenido, el cual no penaliza el conjunto de discontinuidades de la señal u. A partir de esto, se propone un funcional modificado que, bajo ciertas suposiciones sobre la función de peso no local w(x,y), permite obtener un término que es equivalente como semi-norma a la semi-norma de Slobodeckij, lo que implica que el funcional quede definido en el espacio H^s\times H^1, donde H^s es el espacio de Sobolev fraccionario con s en (1/2,1). Se prueba rigurosamente la Gamma-convergencia a un funcional que se puede interpretar como el funcional de Mumford-Shah relajado con gradiente no local. Este resultado es relevante porque en este caso el Gamma-límite sí penaliza el conjunto de discontinuidades de la señal u, que es el comportamiento deseado para estos funcionales. A continuación, se exponen las llamadas funciones de Gabor generalizadas, para ser utilizadas en la aproximación de una señal, utilizándose como ejemplo las splines exponenciales (complejas), que corresponden a funciones trigonométricas con soporte compacto, permitiendo aproximar una señal en diferentes niveles de resolución.
Finalmente, se presenta la implementación numérica de los modelos considerados, partiendo por filtros no locales, modelos de segmentación local y no local, y concluyendo con la aproximación por splines exponenciales. Se exponen simulaciones numéricas que permiten comparar diversos métodos además de explorar las ventajas y limitaciones de cada método en particular, concluyendo que existe evidencia de que estos métodos efectivamente permiten mejorar el análisis de señales e imágenes que contienen texturas.
|
4 |
Reconocimiento de huellas dactilares usando la cámara de un dispositivo móvilValdés González, Felipe Manuel January 2015 (has links)
Ingeniero Civil Electricista / La seguridad es un aspecto siempre presente en la vida cotidiana, ya sea como parte del ámbito laboral o de los propios hogares, en cualquier situación donde exista un flujo de información personal. Dentro de la amplia gama de sistemas basados en la determinación o confirmación de la identidad de una persona, se encuentran los que hacen uso del reconocimiento biométrico, es decir, emplean características fisiológicas, siendo una de las más utilizadas la biometría dactilar. Por otro lado, los avances de la tecnología de los dispositivos móviles, permiten que cada persona pueda disponer de una poderosa herramienta que podría ser usada para ser parte de un sistema de reconocimiento o verificación de identidad.
En este contexto, el objetivo general de este trabajo de título corresponde a estudiar, diseñar e implementar un sistema capaz de usar la cámara de un dispositivo móvil como sensor biométrico, adquiriendo imágenes de dedos y analizándolas para reconocer su huella dactilar y extraer las características necesarias para la identificación o verificación de la identidad de una persona.
Se implementa, en un Smarth Phone marca Huawei, modelo G-Play Mini, con Sistema Operativo Android, el cual cuenta con una cámara de 13 M.P. y una capacidad de enfoque adecuada, las etapas de: adquisición de imágenes; reconocimiento de la presencia del dedo; segmentación del objeto de interés; corrección de su pose; determinación de área factible de extraer una huella dactilar; y verificación de la calidad de la captura. En el entorno Matlab se desarrollan las etapas posteriores del sistema, correspondientes a la obtención de la huella dactilar a partir de la imagen capturada y verificada previamente, y la extracción de puntos característicos o minucias. Adicionalmente, se lleva a cabo una comparación de huellas dactilares en base a la transformada SIFT. Los resultados son presentados en base a la realización de pruebas ad hoc a cada etapa y a la construcción de una colección de huellas obtenidas mediante el algoritmo implementado.
El estudio resulta positivo, pudiéndose extraer huellas dactilares y sus características a partir de imágenes de dedos. Se concluye que el análisis de color de la imagen aplicando un filtro de piel resulta efectivo para la detección del área de interés; que la valoración de la calidad de la imagen es un paso fundamental para la extracción de una huella; que la aplicación del algoritmo filtro de coherencia permite obtener la huella dactilar; y que es posible extraer características que permitan el reconocimiento o verificación de identidad. Además, se sientan las bases para un trabajo futuro con miras al desafío de mejorar cada etapa logrando un proceso más robusto ajustándose a distintas condiciones y su desarrollo por completo en un dispositivo móvil.
|
5 |
Digitalización de imágenes aplicada a la conservación y difusión de fotografía patrimonial: la experiencia de la Fototeca Andina, Centro Bartolomé de Las Casas (CBC), CuscoBellido Collahuacho, Juan José January 2002 (has links)
Busca identificar los factores que se deben tener en cuenta a la hora de desarrollar un proyecto de digitalización de colecciones fotográficas. Para ello se eligió trabajar con las colecciones de la Fototeca Andina del Centro Bartolomé de Las Casas del Cusco que representan un conjunto voluminoso de imágenes diversas y de mucho valor, únicas en el Perú. Los archivos no sólo ilustran un panorama completo de la sociedad andina peruana entre 1890 y 1970, de importancia considerable para investigadores tanto de las humanidades y las artes, sino también reflejan una amplia gama de ejemplos de técnicas fotográficas por lo que se constituye en un registro tangible del desarrollo de la fotografía en el Perú; que merece conservarse y difundirse ampliamente. / Trabajo de suficiencia profesional
|
6 |
Diseño e implementación de una plataforma de software para reconocimiento facial en videoVillalon de la Vega, Dario Eduardo January 2012 (has links)
Ingeniniero Civil Electricista / Este trabajo aborda el reconocimiento facial en video, cuya problemática se ha convertido en los últimos años en un tema altamente recurrente en diversos ámbitos tales como sistemas de seguridad, plataformas de redes sociales, aplicaciones de marketing, etc.
A modo de contextualización se presenta una revisión del estado del arte en el ámbito de las metodologías de reconocimiento facial y sus principales áreas de aplicación hoy en día. También se abordan los avances actuales en reconocimiento de rostro en video, detallando iniciativas privadas y de comunidades abiertas.
El objetivo general planteado corresponde al diseño, implementación y validación de una plataforma de software para el reconocimiento facial en un archivo de video, utilizando métodos ya establecidos y validados en el campo de la biometría, como lo son el algoritmo Haar para detección de rostros y el algoritmo PCA Eigenface para el reconocimiento facial.
La problemática de fondo tiene que ver con la utilización de estos algoritmos en un escenario como el de un video, en el cual no necesariamente existe una actitud colaborativa de parte de las personas, aportando gestos, poses y luminosidad muy cambiantes, lo cual dificulta la comparación entre los rostros detectados y el rostro objetivo que se desea identificar.
El sistema desarrollado se compone principalmente de 4 módulos funcionales: módulo de ingreso de imágenes del rostro objetivo para el entrenamiento del sistema; módulo de ingreso del video a procesar; módulo del proceso de reconocimiento y módulo de entrega de resultados.
Adicionalmente se desarrolló un módulo con una herramienta que facilita la generación de la referencia de verdad o Ground Truth para el rostro objetivo en el video de interés, con el fin de evaluar de la efectividad del sistema.
Para la ejecución de pruebas, se seleccionaron tres rostros objetivo a partir de los cuales se construyó una base de imágenes con 100 fotografías por cada rostro las que fueron recolectadas desde Internet. También se seleccionó desde Internet un video de alta resolución para cada rostro.
Los resultados de las pruebas son presentados mediante el análisis de curvas ROC y cálculo del índice AUC para cada curva.
Las conclusiones obtenidas apuntan a una alta dependencia de la calidad de la información de entrenamiento del sistema para lograr una aceptable capacidad de reconocimiento, que en este caso alcanzo a un 73% en el caso más favorable.
Las líneas de trabajo futuras propuestas apuntan a la utilización de algoritmos alternativos para reconocimiento facial, y a la inclusión de funciones adicionales de pre-proceso de imágenes, con el fin de mejorar la estandarización de los rostros a procesar.
|
7 |
Gender classification using pair group feature selection based on mutual information from frontal faces and iris imagesTapia Farías, Juan Eduardo January 2015 (has links)
Doctor en Ingeniería Eléctrica / El uso de imágenes de rostros o iris para estimar información demográfica, tal como género, raza, edad y emociones se denomina Soft Biometrics . En un marco de reconocimiento biométrico, la información de género nos puede ayudar a buscar solo en la mitad de la base de datos. La mayoría de los métodos reportados en la literatura usan todas las características disponibles para la clasificación de imágenes. En el procesamiento de imágenes, el ingreso directo de los datos a los clasificadores tiene una alta dimensionalidad y un limitado número de ejemplos. En este escenario la selección de características juega un rol importante mejorando la tasa de clasificación, la eficiencia y la escalabilidad de las imágenes en el proceso de identificación. Un manera de realizar esta tarea, es mediante la selección de características usando información mutua (IM)
y ordenándolas en un ranking de acuerdo a su valor individual de relevancia usando métodos de filtros. Los métodos de ranking se caracterizan por ser rápidos y efectivos, particularmente cuando el número de características es grande y el número de ejemplos disponibles para entrenamiento es comparativamente pequeño, como en el caso de los bases de datos benchmark (Sonar, Spambase, Ionosphere y Madelon). Sin embargo, el ranking reduce la capacidad de selección debido a que no estima ningún tipo de complementariedad entre las variables, lo cual es poco adecuado para la función de selección de conjuntos de datos que tienen altos niveles de complementariedad. Las posibles redundancias entre más de dos variables no se tienen en cuenta.
Dos métodos fueron desarrollados en esta tesis, el primero selecciona características en pares y el segundo en grupos. En el primer método, usamos selección de características basados en la información mutua en pares, aplicada al problema de clasificación de género usando rostros frontales e iris. Se fusionaron las características seleccionadas obtenidas desde la intensidad de los píxeles, forma y textura en varias escalas espaciales. Los resultados fueron evaluados y comparados con los publicados anteriormente en bases de datos estándares tales como las bases de datos FERET y UND usadas para ambientes controlados y la base de datos Labeled Faces in the Wild (LFW) para ambientes no controlados. Este método fue también aplicado a imágenes de iris de bandas espectrales cercanas al infrarrojo de la Universidad de Notre Dame, llamada Gender From Iris (GFI).
El segundo método es basado en filtros y envolventes (filtrappers), para la selección de características en grupo en vez de pares usando información mutua. Este método fue aplicado a la clasificación de género usando rostros e imágenes de iris. La selección de grupos basadas en características relevantes y redundantes fue realizada asignándole un peso a cada característica en relación a sus vecinos. El método fue aplicado a imágenes de rostros usando las bases de datos UND, LFW, MORPH II y en iris usando la base de datos GFI.
Los resultados del primer método de selección de características usando rostros, fueron obtenidos con la fusión de 18.900 características seleccionadas alcanzando una tasa de clasificación de 99.13% en la base de datos FERET. Para la base de datos UND, la mejor tasa de clasificación de género fue obtenida por la fusión de 14.200 características seleccionadas con 94.01%. Para la base de datos LFW la mejor tasa de clasificación fue obtenida con la fusión de 10.400 características seleccionadas, usando 3 escalas espaciales diferentes con un 98.01%. A nuestro entender estos resultados son los mejores resultados reportados para la clasificación de género usando estas bases de datos. Dependiendo del tamaño de la imagen, el número total de características seleccionadas fue reducido a lo menos en 70% en FERET, 73% en UND y 90% en LFW.
En iris, el mejor resultado usando ventanas de 10x10 con un solapamiento del 50% usando histogramas de LBP(8,1) fue de 91.33%, Este nivel de precisión superar los resultados previamente publicados.
Para el segundo método, la mejor tasa de clasificación fue obtenida para la base de datos UND en la fusión de 2.100 características seleccionadas y 30 vecinos cercanos con un 98.25%. El mejor resultado para la base de datos MORPH II fue obtenida con 1.300 características y 25 vecinos cercanos con un 95.50%. Para la base de datos LFW el mejor resultado fue obtenido con 900 características y 25 vecinos cercanos con un 97%, usando validación cruzada de cinco grupos. Nuestros resultados muestran que la clasificación de género puede ser mejorada significativamente mediante el uso de la selección de características en grupos. La mejor tasa de clasificación para el uso de benchmark fue obtenida por la base de datos Sonar, obteniendo 95.68% usando 55 características y 35 vecinos cercanos. En la selección de características para iris, nuestra propuesta obtiene una precisión de 89% basada en la fusión de la información de las mejores características provenientes del iris derecho e izquierdo.
|
8 |
Desarrollo e implementación de un sistema de detección automatica de publicidad en prensa escritaRamírez Mellado, Maximiliano January 2014 (has links)
Ingeniero Civil Eléctrico / La revisión sistemática de la prensa es una importante herramienta para el análisis de presencia de marcas y desarrollo de estrategias publicitarias, el monitoreo de estos medios tradicionalmente es realizado por operadores que manualmente extraen la información.
Este trabajo tiene como objetivo presentar un novedoso sistema de detección automática de publicidad sobre imágenes procedentes de diarios y revistas, dentro del marco del proyecto IntelliMEDIA, llevado a cabo por el startup chileno CPDLabs.
La metodología para detectar anuncios publicitarios se basa en un modelamiento específico de la estructura de la prensa escrita, permitiendo llegar a obtener una estimación del costo de los anuncios detectados. Para ello se separa el problema en 4 bloques: Preprocesamiento que separa el texto de las imágenes dentro de la página.
Detección de logos que busca logos dentro de la página. Detección de publicidad que identifica el anuncio publicitario al que pertenece el logo y finalmente una etapa de tarificación que entrega una estimación del costo asociado al espacio publicitario.
El problema es abordado principalmente mediante tres estrategias: Primero la representación de la imagen en descriptores locales, que permite calzar características similares entre imágenes. Segundo, la estrategia de detección de objetos Viola-Jones, algoritmo de machine learning que genera un clasificador en base a un conjunto de imágenes de entrenamiento. La última estrategia es comparar histogramas de color permitiendo integrar información de color a la clasificación.
Para medir el desempeño de dichas estrategias se desarrolla un marco de evaluación, que consiste en una base de validación de 20.000 páginas de diario con 27 logos marcados, para así medir el desempeño de las distintas estrategias y configuraciones de parámetros, encontrar una solución eficaz para el problema y analizar las fortalezas y debilidades de los distintos métodos.
Los resultados demuestran que la solución es viable y es posible detectar logos mediante descriptores locales y Viola-Jones, logrando desempeños mayores al 90%. Por lo tanto IntelliMediA puede llegar a ser una manera eficaz y eficiente de extraer información publicitaria automáticamente de prensa escrita.
|
9 |
Utilización de Imágenes Digitales para el Mejoramiento de la Productividad de Operaciones de ConstrucciónMora Aguirre, Miguel Alejandro January 2009 (has links)
Diversos estudios demuestran que a nivel mundial la industria de la construcción presenta bajos niveles de productividad. A pesar de que la construcción es un sector considerado tradicionalmente lento para adoptar innovaciones, la aplicación de herramientas que faciliten la captura y el procesamiento de datos para el mejoramiento de procesos, en base a tecnología de información, puede ser una estrategia efectiva para ayudar a mejorar indicadores de productividad.
Este trabajo desarrollado bajo la rama de productividad del proyecto FONDEF D06I1013: “UTILIZACIÓN DE IMÁGENES Y VIDEOS DIGITALES PARA EL MEJORAMIENTO DE LA SEGURIDAD, PRODUCTIVIDAD Y CALIDAD EN PROCESOS DE CONSTRUCCIÓN”. Presenta el diseño de metodologías computacionales que facilitan la captura, el procesamiento y análisis de información para el mejoramiento de la productividad en operaciones de construcción, utilizando videos e imágenes digitales. Se discuten los problemas y necesidades de obra que pueden ser atendidos mediante el uso de imágenes y videos digitales. Se describen las metodologías, su adaptación; las tecnologías disponibles y el diseño de los nuevos métodos que fueron incorporados en un sistema de captura, procesamiento y análisis de información a partir de videos e imágenes digitales. Finalmente se presenta un set de herramientas cuyo uso puede contribuir al mejoramiento significativo de la productividad en proyectos de construcción.
|
10 |
Estudio de Técnicas de Selección de Bancos de Filtros Inducidos por Wavelet Packets para Extracción de Características en Reconocimiento de VozPavez Carvelli, Eduardo Hernán January 2011 (has links)
En procesamiento de señales y reconocimiento de voz, uno de los principales tópicos es la extracción de características. Dada una señal digitalizada esta se transforma a una más compacta de acuerdo a algún criterio dependiente del problema. Por ejemplo, la voz es extremadamente redundante, y contiene información de múltiples fuentes como identidad del locutor, estado emocional y secuencia fonética. En reconocimiento de voz, se desea extraer características que preserven la discriminabilidad entre unidades acústicas pero tengan menor dimensión que la señal original.
En esta memoria se estudiarán metodologías de extracción de características para reconocimiento de voz utilizando criterios de discriminabilidad entre unidades fonéticas. Como punto de partida se considerará la técnica de extracción de características MFCC utilizada en los reconocedores estándar y con ellas se entrenará un reconocedor con el software HTK para la base de datos TIMIT.
Los MFCC se implementan con bancos de filtros; usando esa motivación y aprovechando la gran colección de formas de representar señales que permite la transformada Wavelet Packet (WP), se propuso un método de selección de bancos de filtros WP considerando discriminación entre unidades acústicas. La memoria se centrará en aplicar esta metodología y las soluciones que esta entrega para proponer una alternativa a los MFCCs. La forma de evaluar los rendimientos de los distintos métodos será mediante el porcentaje de reconocimiento fonético en un subconjunto de test de TIMIT.
La parte teórica del trabajo consiste en estudiar propiedades y formas de aplicar los WP, y como se construyen los sistemas de reconocimiento fonético. En la práctica, en implementar la transformada WP y los WPCC en C++, implementar reconocedores fonéticos en el software HTK, y unir todos estos bloques usando el lenguaje PERL, para correr experimentos en distintos escenarios.
El aporte de este trabajo son las características Wavelet Packet Cepstral Coefficients (WPCC), se estipulan criterios concretos de diseño para los bancos de filtros WP, con el objetivo de obtener la mayor información para discriminar fonemas. Los WP obtenidos tienen alta selectividad en frecuencia y una estructura que privilegia la resolución en bajas frecuencias principalmente el rango [200Hz-1000Hz] del espectro acústico.
|
Page generated in 0.0749 seconds