Spelling suggestions: "subject:"processamento dde imagens."" "subject:"processamento dee imagens.""
1 |
Retrato post-humano. Aplicación que traduce el movimiento del rostro en nuevas propuestas visuales mediante el proceso de diseño generativoHouzvic Franco, Solveig January 2014 (has links)
Memoria para optar al título de Diseñador Gráfico / El presente documento sistematiza un proceso investigativo en
torno al retrato, los nuevos medios y el diseño generativo, enmarcados en
el concepto de post-humanismo como sustento teórico y conceptual para
la generación de un proyecto de diseño, que forma parte del proceso de
titulación de la carrera de Diseño Gráfico de la Universidad de Chile.
La investigación recopila los antecedentes teóricos y experiencias
profesionales autorales sobre proyectos de diseño interactivo con uso de
interacción del rostro para la creación de un proyecto experimental.
El documento aborda los parámetros históricos y filosóficos del
retrato para unirlo con el concepto de post-humanismo. También expone
la realidad que presentan los nuevos medios insertos en la sociedad
llegando al diseño generativo y diseño de interacción, donde los elementos
o interfaces principales son el ordenador, la pantalla y las herramientas
que servirán para llevar a cabo el proyecto.
Finalmente se llega a una propuesta que engloba todos los
conceptos y que conlleva al concepto de retrato post-humano.
|
2 |
Desarrollo de un algoritmo de stitching para secuencia de imágenes con amplios movimientos de cámaraGálvez Ortiz, Sebastián Andrés January 2017 (has links)
Ingeniero Civil Eléctrico / En la actualidad, se han desarrollado los algoritmos de stitching para sintetizar el contenido de múltiples imágenes. Dependiendo del tipo de movimiento descrito por la cámara, existen diversas formas de abordar este problema, ya sea generando una imagen plana o una representación tridimensional de la escena. En particular, secuencias de imágenes capturadas con cambios grandes de la posición de la cámara, presentan un desafío para su aplicación directa. Así, el presente trabajo desarrolla una propuesta de algoritmo que incorpora técnicas del estado del arte para abordar este tipo de secuencias.
La propuesta se basa en establecer correspondencias mediante la extracción y calce de descriptores visuales y es implementada en dos fases. En la primera, se explora el uso de transformaciones de homografía para relacionar imágenes, proyectando el contenido a una imagen de referencia. En la segunda fase, se estiman simultáneamente las poses de la cámara y una representación aproximada de la escena, correspondiente a una superficie tridimensional, sobre la que se proyecta el contenido de cada vista. Para evaluar el desarrollo, se definen pruebas que incluyen la medición del error de reproyección promedio y la evaluación visual de las composiciones finales.
En los resultados obtenidos para el primer enfoque, se miden desplazamientos promedio de más de 4[px] al proyectar sucesivamente puntos correspondientes hacia la vista de referencia. Luego, en la composición final, se observan muchos sectores mal alineados, ya que las transformaciones obtenidas son válidas en zonas muy acotadas de la imagen, producto de las diferencias de profundidad. Estos resultados llevan a implementar la segunda fase, donde se obtienen reconstrucciones parciales de la escena con un error de reproyección promedio de 0.005[px], con desviación de 0.0018[px]. Así, a pesar de la baja densidad de la nube de puntos, existe una mejora en la apreciación visual del alineamiento en la composición, además de introducir la ventaja de utilizar puntos de vista arbitrarios.
Con el trabajo realizado, se logran identificar las limitaciones del registro por homografías sobre las secuencias tratadas. Además, se presenta una propuesta que mejora la alineación del primer enfoque, al lograr combinar las distintas vistas de una secuencia sobre una representación tridimensional aproximada de la escena. Finalmente, se concluye que la propuesta desarrollada otorga una base para solucionar el problema planteado y permite identificar líneas de trabajo futuro, entre las cuales se destaca el buscar obtener una reconstrucción métrica densa de la escena que sintetice la información de todas las vistas en el modelo tridimensional. / Este trabajo ha sido parcialmente financiado por Woodtech S.A. y Red To Green S.A. / 16/08/2022
|
3 |
Contributions to Automatic and Unsupervised MRI Brain Tumor Segmentation: A New Fuzzy ApproachGordillo Castillo, Nelly 26 July 2010 (has links)
Brain tumors are part of a group of common, non-communicable, chronic and potentially lethal diseases affecting mostfamilies in Europe. Imaging plays a central role in brain tumor management, from detection and classification to staging andcomparison. Increasingly, magnetic resonance imaging (MRI) scan is being used for suspected brain tumors, because in addition tooutline the normal brain structures in great detail, has a high sensitivity for detecting the presence of, or changes within, a tumor.Currently most of the process related to brain tumors such as diagnosis, therapy, and surgery planning are based on its previoussegmentation from MRI. Brain tumor segmentation from MRI is a challenging task that involves various disciplines. The tumors to besegmented are anatomical structures, which are often non-rigid and complex in shape, vary greatly in size and position, and exhibitconsiderable variability from patient to patient. Moreover, the task of labeling brain tumors in MRI is highly time consuming and thereexists significant variation between the labels produced by different experts. The challenges associated with automated brain tumor segmentation have given rise to many different segmentationapproaches. Although the reported accuracy of the proposed methods is promising, these approaches have not gained wide acceptance among the neuroscientists for every day clinical practice. Two of the principal reasons are the lack of standardizedprocedures, and the deficiency of the existing methods to assist medical decision following a technician way of work. For a brain tumor segmentation system has acceptance among neuroscientists in clinical practice, it should supportmedical decision in a transparent and interpretable way emulating the role of a technician, considering his experience and knowledge. This includes knowledge of the expected appearance, location, variability of normal anatomy, bilateral symmetry, andknowledge about the expected intensities of different tissues. The image related problems and the variability in tissue distribution among individuals in the human population makes that some degree of uncertainty must be considered together with segmentationresults. A possible solution for designing complex systems, in which it is required to incorporate the experience of an expert, or the related concepts appear uncertain, is the use of soft computing techniques such as fuzzy systems. An important advantage of fuzzysystems is their ability for handling vague information. In this work, it is proposed the development of a method to assist the specialists in the process of segmenting braintumors. The main objective is to develop a system that can follow a technician way of work, considering his experience andknowledge. More concretely, it is presented a fully automatic and unsupervised segmentation method, which considers humanknowledge. The method successfully manages the ambiguity of MR image features being capable of describing knowledge about thetumors in vague terms. The method was developed making use of the powerful tools provided by fuzzy set theory. This thesis presents a step-by-step methodology for the automatic MRI brain tumor segmentation. For achieving the fullyautomatic and unsupervised segmentation, objective measures are delineated by means of adaptive histogram thresholds for defining the non-tumor and tumor populations. For defining the tumor population a symmetry analysis is conducted. The proposed approach introduces a new way to automatically define the membership functions from the histogram. The proposed membership functions are designed to adapt well to the MRI data and efficiently separate the populations. Since any post-processing is needed, and the unique pre-processing operation is the skull stripping, the proposed segmentation technique reduces the computational times. The proposed approach is quantitatively comparable to the most accurate existing methods, even thoughthe segmentation is done in 2D.
|
4 |
Extraction and classification of objects from astronomical images in the presence of labeling biasCabrera Vives, Guillermo January 2015 (has links)
Doctor en Ciencias, Mención Computación / Giga, tera y petabytes de datos astronómicos están empezando a fluir desde la nueva generación de telescopios. Los telescopios de rastreo escanean una amplia zona del cielo con el fin de mapear la galaxia, nuestro universo, y detectar fuentes variables como la explosion de estrellas (o supernovas) y asteroides. Al igual que en otros campos de la ciencia observacional, lo único que podemos hacer es observar estas fuentes a través de la luz que emiten y que podemos capturar en nuestras cámaras. Debido a la gran distancia a la que estos objetos se encuentran, aún cuando podemos tener una caracterización estimada de estas fuentes, es imposible conocer las propiedades reales de ellas.
En esta tesis, proponemos un método para la extracción de los llamados perfiles de Sérsic de fuentes astronómicas y su aplicación a clasificación morfológica de objetos. Este perfil de Sérsic es un modelo paramétrico radial asociado con la morfología de galaxias. La novedad de nuestro enfoque es que convierte la imagen 2D en un perfil radial 1D utilizando curvas de nivel elípticas, por lo que incluso cuando el espacio de parámetros de Sérsic es el mismo, la complejidad se ve reducida 10 veces en comaración a ajustes de modelos en 2D de la literatura. Probamos nuestro método sobre simulaciones y obtenemos un error de entre un 40% y un 50% en los parámetros de Sérsic, mientras que obtenemos un chi cuadrado reducido de 1,01. Estos resultados son similares a los obtenidos por otros autores, lo que sugiere que el modelo de Sérsic es degenerado. A su vez, aplicamos nuestro método a imágenes del SDSS y mostramos que somos capaces de extraer la componente suave del perfil de las galaxias, pero, como era de
esperar, fallamos en obtener su estructura más fina.
También mostramos que las etiquetas creadas por los seres humanos son sesgadas en términos de parámetros observables: al observar galaxias pequeñas, débiles o distantes, la estructura fina de estos objetos se pierde, produciendo un sesgo en el etiquetado sistemático hacia objetos más suaves. Creamos una métrica para evaluar el nivel de sesgo en los catálogos de las etiquetas y demostramos que incluso etiquetas obtenidas por expertos muestran cierto sesgo, mientras que el sesgo es menor para etiquetas obtenidas a partir de modelos de aprendizaje supervisado. Aun cuando este sesgo ha sido notado en la literatura, hasta donde sabemos, esta es la primera vez que ha sido cuantificado. Proponemos dos métodos para des-sesgar etiquetas. El primer método se basa en seleccionar una sub-muestra no-sesgada de los datos para entrenar un modelo de clasificación, y el segundo método ajusta simultáneamente un modelo de sesgo y de clasificación a los datos. Demostramos que ambos métodos obtienen el sesgo más bajo en comparación con otros conjuntos de datos y procedimientos de procesamiento.
|
5 |
Clasificación de Género en Imágenes Faciales Usando Información MutuaTapia Farías, Juan Eduardo January 2012 (has links)
Durante la década de los 90, uno de los principales problemas abordados en el área
de visión computacional fue el detectar rostros en imágenes, para lo cual se desarrollaron
innumerables métodos y aplicaciones que pudieran realizar dicha tarea. En la actualidad, ese
problema se encuentra prácticamente solucionado con detectores con tasas de detección muy
altas, por lo cual, el problema ha evolucionado a poder obtener información adicional de estos
rostros detectados, ya sea identi cando su raza, edad, emociones, género, entre otros. Es en
este contexto, que se enmarca esta investigación.
La clasi cación de género se considera una tarea difícil y complementaria al reconocimiento
de patrones, a causa de la alta variabilidad de la apariencia del rostro. Los rostros son
objetos no rígidos y dinámicos con una diversidad grande en la forma, el color y la textura,
debido a múltiples factores como la pose de la cabeza, iluminación, expresiones faciales y
otras características faciales. La alta variabilidad en la apariencia de los rostros afectan
directamente su detección y clasi cación.
En este trabajo de tesis se implementaron los métodos de extracción de características
basados en intensidad y textura, se midió su desempeño con 4 tipos de clasi cadores distintos.
Las características extraídas fueron fusionadas al nivel de las características.
Por otra parte, se extendió el efecto de seleccionar características utilizando 3 métodos
basados en Información Mutua, Mínima redundancia y Máxima relevancia(mRMR), Información
Mutua Normalizada (NMIFS), Información Mutua Condicional (CMIFS). Se compararon
nuestros resultados con los mejores datos publicados, utilizando las bases de datos
internacionales de rostros FERET y WEB, usando diferentes tamaños de imágenes y particiones
de datos.
Se obtuvieron mejoras signi cativas en la clasi cación de género, que van desde 1.2 % al
12.7 % sobre la base de datos FERET y desde 4.1 % al 8.9 % sobre la base de datos WEB.
Además, se redujo el número de características utilizadas como entradas en el clasi cador.
Dependiendo del tamaño de la imagen, el número total de características seleccionadas es
reducida a menos del 74 % en la base de datos FERET y en un 76.04 % en la base de datos WEB. Por lo tanto, el tiempo computacional se reduce signi cativamente para aplicaciones
en tiempo real.
|
6 |
Detección robusta de objetos en robots humanoidesYáñez Arancibia, José Miguel January 2013 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / En este trabajo se presenta un sistema de detección de objetos para robots móviles basado en la información visual entregada por las cámaras del robot y el estado de los encoders de cada articulación. Debido a la baja capacidad de procesamiento que poseen los computadores de este tipo de robots, no es posible utilizar técnicas clásicas de visión computacional para la detección de objetos. Por ésto, esta tesis propone un sistema de percepción alternativo, de bajo consumo computacional, de alto desempeño y robusto. El sistema desarrollado no sólo detecta objetos sino que también les calcula: la pose respecto al sistema de referencia del robot y el error de la medición dada por una matriz de covarianza. También identifica el objeto detectado en caso de tratarse de objetos repetidos en el entorno.
El ambiente de trabajo es el fútbol robótico, por lo que los objetos de interés a detectar corresponden a: los arcos, las líneas de la cancha y sus respectivas intersecciones. Dado que éstos objetos poseen una geometría regular, los sistemas de percepción se basan en el ajuste de modelos de líneas rectas que luego son considerados posibles bordes de los objetos. Los puntos que conforman las líneas de borde son determinados a partir de la información de color para el caso de arcos, e información de altos gradiente de intensidad para el caso de las líneas. Luego una serie de reglas dispuestas en cascada determinan si los modelos encontrados corresponden a objetos en la imagen.
La detección de objetos también hace uso de la información del estado de los encoders de los motores de cada articulación para eliminar falsos positivos y para calcular la pose de los objetos respecto al sistema de referencia del robot. Éste cálculo se realiza mediante técnicas de geometría proyectiva y hace uso de la información sobre el estado de la cámara, el cual está dado por una matriz homogénea calculada a partir de la información de los encoders. Dado que el estado de la cámara está sometido a condiciones de ruido e imperfecciones de fabricación del robot, se ha diseñado un sistema de calibración que mejora notablemente la exactitud del cálculo de la pose de los objetos detectados.
Las detecciones son acompañadas de una matriz de covarianza generada a partir de funciones determinadas mediante análisis de información estadística. De esta forma las detecciones pueden ser utilizadas como observaciones directas para estimadores de estados basados en filtros de Kalman extendido (por ejemplo, el proceso de auto-localización). Con esta información el comportamiento del filtro de Kalman es más cercano a la realidad y menos susceptible a oscilaciones dadas por detecciones con poses ruidosas (como por ejemplo, cuando el objeto se encuentra a grandes distancias).
Dado que los objetos líneas, esquinas y t-líneas son ambiguos, es decir, no se pueden identificar utilizando sólo información visual, se ha diseñado un sistema de identificación basado en la auto-localización del robot.
El sistema funciona con una tasa de detección alta (93.8\% para el caso de los arcos) y funciona a una velocidad de aproximadamente 10 cuadros por segundo, lo cual satisface lo esperado. El sistema funciona en un robot móvil humanoide que posee un procesador AMD Geode de 500MHz y con 256MB de memoria RAM.
|
7 |
Interfaz humano máquina controlada por gestosEscalona Neira, Ismael Fernando January 2014 (has links)
Ingeniero Civil Eléctrico / El lenguaje corporal es importante para comunicarse fluidamente con las personas. En el ámbito de la interacción con máquinas, existen sistemas para reconocer automáticamente gestos, pero confunden cuerpos de color similar y sus capacidades son muy inferiores a las de los seres humanos. Para contribuir a la solución de este problema, se presenta una plataforma que sigue una esquina e identifica pulsaciones utilizando una webcam, independientemente del tono del objeto y del fondo, lo que se efectúa analizando variaciones luminosas.
El sistema registra imágenes con una cámara y las preprocesa para disminuir el ruido. Posteriormente, obtiene las zonas con cambios luminosos y reconstruye los objetos móviles. Luego, identifica las esquinas de los cuerpos, sigue la trayectoria de una de ellas y verifica si hay oscilaciones. La plataforma es complementada con módulos para configurar su funcionamiento, dibujar trayectorias y controlar un cursor. La programación se realiza en C++ y utiliza las librerías OpenCV para procesar imágenes y Qt para mostrar la interfaz de usuario.
El desempeño se evalúa con videos en que un dedo recorre trayectorias predefinidas. En las pruebas se utilizan varios tipos de iluminación, fondos, distancias a la cámara, posturas y velocidades de movimiento. Los resultados muestran que el algoritmo ubica el dedo con error promedio de 10 píxeles y detecta pulsaciones en el 82% de los intentos. Se producen fallas cuando hay fuentes de luz frente a la cámara, oscuridad o movimiento detrás de la mano. El programa se ejecuta a 30fps y utiliza el 16% de un procesador Intel Core i5-3337u.
La plataforma es capaz de distinguir objetos de tono similar, pero es poco tolerante a movimientos en el fondo. Una combinación de los métodos basados en variaciones luminosas y color puede corregir sus deficiencias mutuamente y habilitar aplicaciones que utilicen señales hechas con las manos para ordenadores personales y robots.
|
8 |
Implementación de un sistema reconocedor de eventos en videos, con un clasificador K-NNOnofri Soto, Ranato Vicenzo January 2014 (has links)
Ingeniero Civil en Computación / Hoy en día el fácil acceso a la tecnología permite al ser humano registrar, con un mínimo esfuerzo, eventos de interés en su vida. Como consecuencia se genera una gran cantidad de información multimedia, en particular videos, cuyo análisis de contenido es muy difícil de automatizar, siendo deseable el uso de técnicas de minería de datos y visión computacional para aprovechar esta oportunidad. En este contexto, surge la inquietud de clasificar dichos objetos en base a los eventos presentes en ellos, y de esa forma generar una herramienta predictiva que pueda ser usada posteriormente en aplicaciones de diversas áreas, como por ejemplo, en la publicidad.
El presente trabajo de título da cuenta de la implementación de un sistema reconocedor de eventos en video, además de la experimentación con el mismo, la posterior modificación de su componente de clasificación, y la comparación de ambas versiones en términos de eficacia. El tipo de datos que emplea el sistema corresponde a videos de consumidor, los que fueron recolectados por una comunidad científica y agrupados en un dataset de uso público. El sistema se basa en un reconocedor de eventos planteado en un artículo, y está formado por descriptores de características, un módulo de clasificación SVM y un módulo de creación de histogramas. La modificación planteada consiste en cambiar SVM por un clasificador K-NN.
Para cumplir con los objetivos mencionados anteriormente, se sigue la implementación propuesta en el artículo, esto significa que, primero se descarga el dataset y se implementan los descriptores escogidos, posteriormente, se implementa el clasificador SVM y se compara el sistema preliminar con las mediciones de eficacia del artículo, se repite el proceso hasta obtener valores similares y considerar que el sistema ha sido ajustado correctamente. Finalmente, se implementa el módulo K-NN y se comparan ambos sistemas en base a las métricas de rendimiento.
A partir de los resultados de eficacia de las dos versiones, se muestra que el clasificador SVM es una mejor alternativa que K-NN para enfrentar el problema de reconocimiento de eventos en videos de consumidor. Esto es válido para los descriptores con los que se probó el sistema, pero puede no ser cierto si se utiliza otro conjunto de descriptores. Además, se deja en evidencia la dificultad que presenta el manejo de grandes volúmenes de información, y la necesidad de soluciones para su procesamiento.
|
9 |
Algunos resultados teóricos y numéricos en procesamiento de imágenes digitalesGodoy Campbell, Matías Maximiliano January 2013 (has links)
Ingeniero Civil Matemático / El objetivo principal del presente trabajo es el estudio, tanto teórico como numérico, de métodos de procesamiento de imágenes orientados al área de las señales e imágenes con texturas.
Se comienza con una revisión de conceptos básicos tanto en procesamiento de imágenes, como en herramientas matemáticas de interés, se exploran trabajos previos que motivan buena parte de esta memoria.
En particular los trabajos de filtros no locales, formulados por Buades en 2005 y los funcionales no locales del tipo Mumford-Shah, formulados por Jung et al. en 2011, además de varios trabajos clásicos del área del cálculo de variaciones ligados al procesamiento de imágenes. Más adelante, se explora en detalle el problema de segmentación, estableciendo una definición concreta y ejemplos de aplicación, presentando luego el funcional de Mumford-Shah. Se analiza la limitación de este funcional desde el punto de vista numérico para realizar segmentación y por esto se introduce el funcional de Ambrosio-Tortorelli, donde destacan sus resultados más importantes, en particular la $\Gamma$-convergencia al funcional de Mumford-Shah relajado.
Como desarrollo central, se trabajó el problema de segmentación no local, considerando el funcional planteando por Jung et al. en 2011. Se prueba que en el caso unidimensional el funcional no es adecuado en el sentido del Gamma-límite obtenido, el cual no penaliza el conjunto de discontinuidades de la señal u. A partir de esto, se propone un funcional modificado que, bajo ciertas suposiciones sobre la función de peso no local w(x,y), permite obtener un término que es equivalente como semi-norma a la semi-norma de Slobodeckij, lo que implica que el funcional quede definido en el espacio H^s\times H^1, donde H^s es el espacio de Sobolev fraccionario con s en (1/2,1). Se prueba rigurosamente la Gamma-convergencia a un funcional que se puede interpretar como el funcional de Mumford-Shah relajado con gradiente no local. Este resultado es relevante porque en este caso el Gamma-límite sí penaliza el conjunto de discontinuidades de la señal u, que es el comportamiento deseado para estos funcionales. A continuación, se exponen las llamadas funciones de Gabor generalizadas, para ser utilizadas en la aproximación de una señal, utilizándose como ejemplo las splines exponenciales (complejas), que corresponden a funciones trigonométricas con soporte compacto, permitiendo aproximar una señal en diferentes niveles de resolución.
Finalmente, se presenta la implementación numérica de los modelos considerados, partiendo por filtros no locales, modelos de segmentación local y no local, y concluyendo con la aproximación por splines exponenciales. Se exponen simulaciones numéricas que permiten comparar diversos métodos además de explorar las ventajas y limitaciones de cada método en particular, concluyendo que existe evidencia de que estos métodos efectivamente permiten mejorar el análisis de señales e imágenes que contienen texturas.
|
10 |
Reconocimiento robusto de rostros usando imágenes térmicasHermosilla Vigneau, Gabriel Enrique January 2012 (has links)
Doctor en Ingeniería Eléctrica / El principal objetivo de este trabajo de tesis es el estudio del reconocimiento de rostros en el espectro térmico (8-12 µm). Como parte de este estudio se analizan y comparan el desempeño de métodos y algoritmos de reconocimiento de rostros en el espectro térmico. También, se propone una metodología para desarrollar robustamente el reconocimiento de rostros térmicos, y se analiza cómo el reconocimiento de rostros térmicos se ve afectado por los cambios que sufren las imágenes térmicas cuando son capturadas en diferentes periodos de tiempo debido a cambios en el metabolismo y condiciones ambientales.
Los métodos de reconocimiento de rostros fueron seleccionados por el desempeño obtenido en otros estudios comparativos, trabajar en tiempo real, requerir sólo una imagen por sujeto y operar en línea. El estudio analiza 3 métodos basados en calces locales: Histogramas LBP, Histogramas WLD y Descriptores Jets de Gabor, y 2 métodos basados en calces globales: el método SIFT y SURF. Los métodos son comparados utilizando la base de datos creada UCHThermalFace, que permite evaluar los métodos en condiciones reales ya que incluyen variaciones naturales de iluminación, imágenes capturas en interior y exterior, expresiones faciales, pose, accesorios y oclusión.
Se analiza el uso de las características vasculares del rostro, que pueden ser obtenidas utilizando una cámara térmica. Se propone una metodología basada en el uso combinado de características fisiológicas de la red vascular del rostro humano y la intensidad de los pixeles del rostro térmico, metodología llamada VascularThermalFace. Además, se aborda un estudio de reconocimiento de rostros cuando existe diferencia temporal en la adquisición de las imágenes térmicas. Se crearon y analizaron 2 bases de datos llamadas UCHThermalTemporalFace y UCHThermalFaceIndoorOutdoor, donde se visualizan variaciones en el metabolismo de los sujetos durante diferentes días.
Las principales conclusiones de este estudio muestran que: (i) el mejor resultado entre velocidad de procesamiento y altas tasas de reconocimiento es alcanzado por el método de Histogramas WLD, (ii) se valida el uso de la metodología VascularThermalFace, debido al buen desempeño obtenido por todos los métodos de reconocimiento y sus altas tasas de reconocimiento, (iii) experimentos con imágenes adquiridas en diferentes periodos de tiempo, muestran que el desempeño de los métodos es alto y solamente dependen de una buena configuración de la cámara térmica, (iv) experimentos con imágenes adquiridas en sesiones de interior-exterior y viceversa, muestran que el desempeño es bueno para métodos basados en calces locales y bajo para métodos basados en calces globales. De estos resultados, es posible diseñar un sistema de reconocimiento de rostros térmico que sea eficiente y robusto.
|
Page generated in 0.1156 seconds