Spelling suggestions: "subject:"processamento dde imagens."" "subject:"processamento dee imagens.""
31 |
Diseño e implementación de un sistema embebido para obtención de imágenes a través de una red IPBas Kana, Sebastián January 2014 (has links)
Ingeniero Civil Eléctrico / Los sistemas embebidos son probablemente las tecnologías más masivas que existen hoy en día. Prácticamente todo equipo tecnológico cuenta con un sistema embebido. En esto radica la importancia de esta memoria. Se pretende mostrar cómo funciona el proceso de crear un prototipo de sistema embebido que permita probar un concepto o una idea.
En este caso particular, el sistema que se diseñó e implementó tiene el objetivo de solicitar y obtener imágenes de forma remota. Además, el proyecto se enmarca en un proceso empresarial, situación que permite crear una solución a un problema real. De esta manera, conviven el desarrollo y la investigación, con el objetivo de encontrar el estado del arte de una serie de tecnologías y realizar adaptaciones que permitieron concretar el proyecto.
En este documento se expone el desarrollo fundamental que se llevó a cabo para diseñar y luego implementar un prototipo funcional. Se muestran y describen los distintos equipos utilizados en el prototipo. Además, se exponen los módulos de software que componen el sistema, junto con explicar su desarrollo y objetivo. En algunos casos se da cuenta de un proceso real de desarrollo, en el que ciertas soluciones no cumplen con los objetivos originales o simplemente los requerimientos cambiaron por razones propias de la industria y los negocios. Esto provocó que se tuvieran que adaptar ideas.
El proyecto en el que se enmarca este trabajo intenta evaluar la factibilidad de instalar estos sistemas embebidos en las grandes tiendas. La idea es obtener información acerca del inventario y usarla para optimizar procesos, lo que finalmente se traduce en aumento de ventas y disminución de costos. En el fondo, este trabajo pretende proveer la tecnlogía a un proyecto mayor con requisitos claros.
|
32 |
Identificación de daño en placas tipo sándwich usando un sistema de correlación de imágenes digital y la curvatura de los modos de vibraciónSeguel Plaza, Francisco Javier January 2016 (has links)
Magíster en Ciencias de la Ingeniería, Mención Mecánica / Medir la vibración con cámaras de alta velocidad permite la disponibilidad de una gran cantidad de datos, ya que el sistema discretiza la super ficie a medir en un arreglo rectangular de miles de puntos. Contar con datos en alta resolución puede ser un factor positivo a la hora de localizar el daño y determinar su severidad, en especial cuando las zonas afectadas son de poco tamaño.
El objetivo de esta investigación es explorar el potencial en el uso de un sistema de correlación de imágenes de alta velocidad (DIC) para la medición de la vibración y la detección de daño por delaminación en placas compuestas tipo panal de abeja.
El estudio contempló la preparación de cinco escenarios de daño por delaminación, de diferentes formas y tamaños, más una placa sin daño, y la implementación de tres métodos de detección de daño basados en la curvatura de los modos de vibración: two dimensional gapped smooth method (TDGSM), uniform load surface method (ULSM) y strain energy method (SEM).
Se midió la vibración de las placas con un sistema DIC de alta velocidad, en rangos cercanos a sus frecuencias naturales. Con los datos obtenidos mediante el sistema DIC se pudieron obtener los modos de vibrar de las placas, para los distintos escenarios de daño, pudiendo contar con al menos seis modos de vibración por placa. Estos datos fueron tratados con un algoritmo de suavizamiento y recuperación de datos. Posterior a esto, se aplicaron las metodologías de detección, utilizando la información de las placas con y sin daño. Se obtuvieron grá ficos de contorno de los índices de daño obtenidos con los métodos de detección, los cuales proporcionaron imágenes similares a radiografías de las placas.
Los resultados obtenidos probaron la efi cacia de los métodos de detección de daño al utilizar la información obtenida mediante el sistema DIC. La curvatura de los modos de vibración es una característica altamente sensible a cambios locales en la estructura, y esta propiedad es la base de todos los métodos de detección utilizados. . Todos los métodos fueron capaces de detectar tanto la localización como parte de la severidad de los escenarios de daño estudiados. En los casos de daño múltiple, en su mayoría, las metodologías solo pudieron detectar uno de los daños presentes en la estructura. Destacó el método SEM , el cual fue capaz de detectar un área delaminada pequeña y un escenario de daño múltiple, que no habían sido detectados en trabajos anteriores, con otras técnicas de detección. / Este trabajo ha sido parcialmente financiado por CONICYT
|
33 |
Brain magnetic resonance image segmentation for the construction of an anatomical model dedicated to mechanical simulationGaldames Grunberg, Francisco José January 2012 (has links)
Doctor en Ingeniería Eléctrica / Durante una neurocirugía se debe contar con información anatómica precisa, la cual es comúnmente obtenida por medio de un registro entre la posición del paciente y datos pre-operatorios. Uno de los principales problemas para realizar este registro es la deformación del cerebro durante la cirugía, fenómeno conocido como Brain Shift. Para solucionar este problema se han creado modelos mecánicos del cerebro, con los cuales es posible aproximar la deformación real. Estos modelos mecánicos requieren un modelo anatómico del paciente, el cual se obtiene, en la mayor parte de los casos, por medio de una segmentación manual o semi-manual. El objetivo de esta tesis es mejorar la obtención del modelo anatómico, proponiendo un método automático para obtener un modelo anatómico del cerebro, adaptado a la anatomía particular del paciente y adecuado para un posterior modelamiento mecánico.
El método propuesto realiza una pre-segmentación del cerebro, seguida de una segmentación basada en modelos deformables para identificar las estructuras anatómicas más relevantes para el modelamiento mecánico. Se incluyen las estructuras comúnmente utilizadas en la literatura: superficie cortical, superficie interna del cráneo y ventrículos. Además, se incluyen las membranas internas del cerebro: falx cerebri y tentorium cerebelli. Estas membranas se han incorporado en los modelos de muy pocas publicaciones, aun cuando su importancia es reconocida en la literatura.
La segmentación por modelos deformables que se ha implementado está principalmente basada en mallas simplex, las cuales son duales topológicos de las mallas de triángulos. Para aprovechar las cualidades complementarias de estas dos representaciones, se ha desarrollado un nuevo método de transformación entre ellas. Nuestro método usa una interpolación geométrica basada en la distancia a los planos tangentes a los vértices de las mallas. El método de transformación fue evaluado usando mallas estándar y obtuvo excelentes resultados al compararlo con el método actualmente más usado, el cual emplea el centro de gravedad de las caras de las mallas. En nuestro método de segmentación las estructuras son segmentadas de manera secuencial y respetando las relaciones anatómicas entre ellas. La segmentación obtenida fue evaluada empleando las bases de datos en linea más usadas (BrainWeb, IBSR, SVE). La segmentación de cada estructura fue evaluada de manera independiente y se realizaron algunas comparaciones con métodos de segmentación populares y establecidos, obteniendo resultados superiores. Las segmentaciones de la superficie cortical, la superficie interna del cráneo y los ventrículos fueron evaluadas usando los indices de Jaccard (J) y Dice (κ). Los resultados para la superficie cortical fueron: J = 0,904 y κ = 0,950 en BrainWeb; J = 0,902 y κ = 0,948 en IBSR; J = 0,946 y κ = 0,972 en SVE. Los resultados para la superficie interna del cráneo fueron J = 0,945 y κ = 0,972 en BrainWeb. Los resultados para los ventrículos fueron: J = 0,623 y κ = 0,766 en IBSR. Las segmentaciones de las membranas internas del cerebro fueron evaluadas midiendo la distancia entre nuestra segmentación y la posición estimada de las membranas en la base de datos IBSR. La distancia media para el tentorium cerebelli fue 1,673 mm, y para el falx cerebri fue 0,745 mm.
|
34 |
Nonlinear principal components analysis for measures and imagesLópez Alfageme, Alfredo Ignacio January 2013 (has links)
Doctor en Ciencias de la Ingeniería, Mención Modelación Matemática / En esta tesis definimos dos adaptaciones no-lineales del análisis de componentes principales, para el estudio de la variabilidad de datos conformados por medidas de probabilidad y por imágenes.
En el Capitulo 2 introducimos el método de análisis de componentes principales geodésico (ACPG) en el espacio de medidas de probabilidad en la línea real, con segundo momento finito, dotado de la métrica de Wasserstein. Apoyándonos en la estructura pseudo-riemanniana del espacio de Wasserstein, definimos el ACPG basado en adaptaciones del ACP a variedades, propuestas en la literatura. En este contexto, el ACPG se define por medio de un problema de minimización sobre el espacio conformado por los subconjuntos geodésicos del espacio de Wasserstein. Usando argumentos de compacidad y de gama-convergencia, establecemos la consistencia del método, demostrando que el ACPG converge a su contraparte poblacional, cuando el tamaño de la muestra crece a infinito. Discutimos las ventajas de este método, respecto a un ACP funcional estándar de medidas de probabilidad en el espacio de Hilbert de funciones a cuadrado integrable. Con el fin de mostrar los beneficios de este procedimiento para el análisis de datos, exhibimos algunos ejemplos ilustrativos en un modelo estadístico simple.
En el Capitulo 3 describimos el método de análisis de componentes principales geométrico (ACP geométrico) para analizar los modos principales de variación geométrica de un conjunto de imágenes. En este contexto proponemos modelar la variabilidad geométrica de las imágenes, respecto a un patrón medio de referencia, por medio de un operador de deformación parametrizado por un espacio de Hilbert. El ACP geométrico consta de dos etapas: (1) registro de imágenes usando un operador de deformación y (2) ACP estándar en los parámetros asociados a las deformaciones. La consistencia del procedimiento es analizada en el contexto de un modelo estadístico de patrón deformable, con una doble asíntota, donde el número de observaciones tiende a infinito y el ruido aditivo converge a cero. Para destacar los beneficios de este procedimiento, describimos un algoritmo y su aplicación a algunos experimentos numéricos con imágenes reales.
|
35 |
Evaluación de algoritmos de matching parcial en objetos 3D utilizando un escáner 3D ópticoMeruane Naranjo, Rafael Ernesto January 2015 (has links)
Magíster en Ciencias, Mención Computación / Ingeniero Civil en Computación / El problema de que un computador determine la similitud entre objetos tridimensionales es un problema que tiene aplicaciones directas en diversas áreas como la medicina, la ingeniería y la arqueología, entre otras. Si bien, dentro de los últimos años se han desarrollado varias técnicas que permiten estimar la similitud entre objetos 3D, estas técnicas presentan serios problemas al momento de realizar consultas cuando la información tridimensional es parcial. Actualmente existen muy pocas técnicas que permiten el cálculo de similitud entre objetos 3D cuando la información es parcial. Por otra parte, la evaluación de estas técnicas se ha realizado utilizando información simulada, que no representa efectivamente cómo es la información tridimensional que una máquina puede obtener del mundo real, por lo que se tiene poca información sobre si estas técnicas son realmente útiles en aplicaciones reales. Uno de los objetivos principales de esta tesis consiste en determinar si existe alguna técnica que permita determinar la similitud entre objetos tridimensionales cuando la información es parcial y proveniente de objetos reales, y evaluar su eficacia.
Se evaluaron algoritmos de matching parcial en objetos 3D utilizando la información proveniente de un escáner 3D óptico creado especialmente para este fin. El trabajo constó de tres fases: (1) la creación de un escáner 3D óptico utilizando un tablet Android y un proyector digital (2) la creación de una colección de referencia de objetos 3D que incluye mallas 3D parciales (3) la evaluación de algoritmos de matching parcial en objetos 3D. El trabajo de tesis es pionero en el ámbito de la evaluación de algoritmos de matching parcial en objetos 3D utilizando mallas 3D provenientes de objetos de la vida real, sin intervención alguna. Los resultados de este proyecto permitieron obtener métricas más realistas de precision vs recall que las existentes.
|
36 |
Factibilidad de Doppler color en equipo de ecografía portátil costo-efectivo TaoteOróstica Navarrete, Rodrigo Esteban January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica.
Ingeniero Civil Eléctrico / Taote es un dispositivo de ultrasonido portátil de bajo costo completamente diseñado y construido en la Universidad de Chile. Fue concebido como una herramienta de diagnóstico primario para ser usado por médicos generales, con la finalidad de evitar derivar casos innecesariamente a otros centros de salud y facilitar el acceso a esta clase de exámenes en zonas aisladas. A pesar de contar con un equipo funcional que permite realizar ecografía en modo B en la región abdominal, aún es un producto en desarrollo. Dentro de este contexto, durante los años 2016 y 2017 se han ido incorporando nuevas características que permiten mejorar la experiencia del usuario de Taote, tales como el guardado de parámetros de configuración y la visualización del estado carga de la batería. Este tipo de modificaciones son posibles gracias a su arquitectura basada en FPGA que permite tener un hardware configurable. En comparación con otros equipos portátiles comercializados actualmente, Taote no dispone por el momento de las mismas funcionalidades, como por ejemplo, la modalidad Doppler Color.
El objetivo de este trabajo de Tesis consiste en evaluar si es posible implementar la funcionalidad Doppler Color en el hardware de Taote. Esto permitiría mostrar sobre la imagen de ecografía tradicional los flujos sanguíneos codificados en una serie de tonos que indican su velocidad y sentido con respecto al transductor. Como requisito previo es necesario conocer la operación del dispositivo en su estado actual y estudiar en detalle los cambios que se deben realizar. El análisis permite concluir sobre la factibilidad de adquirir datos para realizar procesamiento Doppler Color, sin necesidad de rediseñar las tarjetas electrónicas, modificando solo la administración de los disparos.
Para verificar la posibilidad de implementación de la modalidad Doppler Color, el trabajo
se divide en dos. Adquisición de las muestras en modo Doppler después de la conformación y procesamiento de estos datos en un PC para generar la imagen. Para conseguir el primer objetivo es necesario implementar a nivel de hardware un módulo que permite la transferencia de datos en forma serial y una aplicación que sea capaz de recibirlos. Además, se crea un módulo que administra la secuencia en que se realizan los disparos y controla las distintas etapas de pulsación. El resto de las modificaciones necesarias son realizadas en la FPGA de la tarjeta electrónica denominada CLU. En segundo lugar se desarrolla el procesamiento de los datos recibidos en el programa Matlab para producir la imagen en Doppler Color. Esta secuencia se divide en organizar los datos, filtrar mediante un filtro pasa altos las frecuencia que no corresponden al movimiento de los flujos sanguíneos, para luego estimar la potencia, la velocidad y el ancho de banda para el espectro de la señal Doppler.
Los resultados obtenidos indican que se consiguió generar satisfactoriamente la secuencia de operación que permite capturar los datos en modo Doppler, aunque con dichas muestras no fue posible generar la imagen de los flujos en el PC por problemas en la etapa de adquisición de las muestras. Aun así las etapas de procesamiento fueron desarrolladas de manera adecuada, pues se verificó con una base de datos externa.
|
37 |
Wavelet packet filter bank selection for texture retrievalVidal Salazar, Andrea January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica.
Ingeniera Civil Eléctrica / Durante los últimos años, el avance de la tecnología de captura y almacenamiento ha generado un volumen sin precedentes de imágenes digitales almacenadas en las bases de datos. Esto plantea el desafío de desarrollar sistemas autónomos que sean eficientes en la búsqueda y organización del contenido digital. Como problema emblemático surgió Content-Based Image Retrieval como área de investigación. Un sistema de indexación de imágenes busca encontrar las imágenes más similares a una en particular y está compuesto de dos etapas: extracción de características y medición de similitud. La primera etapa busca la forma de representar la imagen extrayendo las características más discriminativas, mientras que la segunda etapa es usada para ordenar las imágenes de acuerdo a su similitud.
Esta tesis propone el uso de Wavelet Packet para abordar el problema de indexación de imágenes de texturas. Wavelet Packet es una herramienta del procesamiento de señales que no ha sido usada en el estado del arte para enfrentar el problema de indexación y, además, es capaz del proveer distintas representaciones para una imagen. Para seleccionar la mejor representación de Wavelet Packet, este trabajo propone una nueva metodología para el problema de indexación que aborda el problema de selección de bases para la familia de Wavelet Packets utilizando el criterio de Mínima Probabilidad de Error. Como resultado de la implementación de la metodología propuesta, se muestra que las soluciones provistas por Wavelet Packet son adaptivas y mejoran el desempeño del sistema de indexación con respecto a la solución Wavelet, bajo condiciones similares y modelos estadísticos.
|
38 |
Uso de modelos en OpticStudio (Zemax) para caracterizar el perfil de luz de imágenes astronómicasJara Pinochet, Rodolfo Alejandro January 2017 (has links)
Ingeniero Civil en Computación / La luz visible es la única parte de la radiación electromagnética que es reconocida como
un estímulo detectable en el sistema visual humano. Para mejorar la capacidad de observar
imágenes astronómicas se han desarrollado grandes y precisos telescopios. Asimismo, la
sensibilidad de las observaciones actualmente ha mejorado al usar detectores CCD (Charge-
Coupled Device), que recogen fotones y convierten a formato digital la información que se
recibe del objeto astronómico en observación.
A partir de modelos en OpticStudio (modelos ópticos) se simularon PSFs (Point Spread
Function) en dispositivos CCD y se verifico que las simulaciones realizadas producían una
respuesta igual de buena como la predicha por la teoría de aberraciones clásica.
Como información de contexto se explican conceptos de óptica, Point Spread Function
(PSF), modelos de telescopios, una descripción pormenorizada de los dispositivos CCD. Se
describe las funciones atingentes a la generación de una PSF a partir de un modelo óptico
en el software OpticStudio y se explica cómo se llegó al código (en Matlab) utilizado para
realizar las simulaciones.
Del modelo en OpticStudio se exportaba la grilla de datos de la Huygens PSF a Matlab,
donde se integraba, se asignaba a los pixeles del CCD y se agregaban las fuentes de ruido
para producir las simulaciones, de las cuales se producían cientos o miles de realizaciones que
eran exportadas en formato fits, las cuales eran posteriormente procesadas por un conjunto
de rutinas en un ambiente de reducción de datos astronómico (donde los datos astronómicos
son manipulados para obtener la información útil al astrónomo).
Dentro de las simulaciones se realizaron variaciones desviando el eje óptico (como si el
espejo se inclinara) y se compararon dichas variaciones con modelos teóricos, los cuales concordaron
en alta medida con la teoría de las aberraciones (coma y astigmatismo), demostrando
la utilidad de usar esta forma de estudiar dispositivos ópticos para reproducir efectos
ópticos producidos en espejos parabólicos y esféricos (dado que estos son de uso frecuente en
astronomía) y así caracterizar el perfil de luz de imágenes astronómicas. / Este trabajo ha sido parcialmente financiado por Proyecto FONDECYT N° 1151213
|
39 |
Detección y Seguimiento de Robots Articulados Mediante Análisis Computacional de ImágenesArenas Sepúlveda, Matías Esteban January 2009 (has links)
El objetivo de esta tesis es diseñar e implementar un sistema de detección y seguimiento de
robots articulados mediante el análisis computacional de imágenes. El principal aporte es
extender el uso de técnicas de detección de objetos rígidos a robots articulados y lograr un
seguimiento en tiempo real de la posición de éstos en imágenes y secuencias de video. El trabajo
realizado está enfocado principalmente a condiciones de fútbol robótico pero es fácilmente
extendible a otras aplicaciones.
El reconocimiento de robots articulados requiere la detección de éstos en cualquier estado y
posición. Para lograrlo, se probaron distintos tipos de clasificadores de manera de obtener una
mayor tasa de detección, independiente del estado del robot (acostado, parado, caminando,
etc…). Los robots utilizados para probar los algoritmos fueron el robot Aibo y los robots de tipo
Humanoide (basado en el modelo Hajime).
El sistema antes mencionado necesitó la creación e implementación de distintas herramientas
computacionales. Para la detección de robots en imágenes se utilizó un sistema basado en
Adaboost, y para el posterior seguimiento se ocupó el algoritmo “mean-shift”. Para la detección
mediante Adaboost se generaron una serie de bases de datos para el entrenamiento del algoritmo.
Posteriormente se construyeron diversos clasificadores (frontal, lateral, trasero, global, etc…), y
se probaron distintas estrategias de detección.
El detector con mejores resultados para Aibos fue el Lateral, con una tasa de detección de hasta
94.7% con 98 falsos positivos en la base de datos AIBODetUChileEval. Luego siguen el detector
Trasero, con 89.9% y 166 falsos positivos y, por último, el detector Frontal con 89.4% y 254
falsos positivos. Finalmente se probó la detección de los Aibos en todas las posiciones con un
detector múltiple, el cual obtuvo una tasa de detección de 94.8% con 392 falsos positivos.
Aplicando solo el detector frontal sobre todas las imágenes con Aibos obtuvo solo un 90% de
detecciones con 392 falsos positivos, pero es más rápido que el detector múltiple. Para los
Humanoides se desarrolló un solo detector que logró un 92.2% de detecciones con 123 falsos
positivos sobre la base de datos HDetUChileEval.
Se concluyó finalmente que los clasificadores Adaboost elegidos en este trabajo para hacer las
clasificaciones reportan excelentes resultados, y no se duda que puedan también hacerlo en otros
tipos de aplicaciones de similares características. Además se logró hacer la detección y el
seguimiento de robots en tiempos muy cercanos al tiempo real, lo cual permite ocuparlo en
aplicaciones con altas restricciones de procesamiento.
|
40 |
Proyección de Datos Multidimensionales Utilizando Teoría de la InformaciónVera Cadenas, Pablo Andrés January 2010 (has links)
En el presente trabajo se desarrolló un método no supervisado de proyección y visualización de
datos multidimensionales a espacios de baja dimensión, en especial a 2D. El modelo de proyección
propuesto consiste en una matriz de transformación lineal y ortonormal entre los espacios de entrada
y salida. Para la optimización de los parámetros se utilizaron como criterios de proyección
medidas basadas en la Teoría de la Información, en particular la Información Mutua. Debido a la
complejidad del cálculo de la Información Mutua utilizando la forma clásica de Shannon, se trabajó
con medidas basadas en la entropía de Renyi, las que combinadas con un estimador de funciones
de densidad de probabilidad, llamado ventana de Parzen, permitieron el cálculo de la Información
Mutua Cuadrática directamente a partir de los ejemplos. El método es no paramétrico ya que no
requiere información a priori sobre la distribución de los datos. Adicionalmente, para mejorar el
desempeño se añadió un pre-procesamiento para los datos llamado Blanqueo, el cual transforma
los datos linealmente de forma que las características de los mismos no tengan correlación y que la
varianza sea unitaria.
El método fue probado en cuatro bases de datos distintas con diversa complejidad y fue comparado
con otros algoritmos como Análisis de Componentes Principales (PCA), Stochastic Neighbor
Embedding (SNE) y Mapas de Sammon (NLM), utilizando como criterios de desempeño tanto medidas
de preservación topológica como otras basadas en clustering. Los resultados mostraron que
el método propuesto es capaz de proyectar datos de alta a baja dimensión manteniendo gran parte
de la información de los mismos, en especial en términos de clustering. El algoritmo superó a PCA
en todas las pruebas y obtuvo resultados comparables con SNE y NLM a pesar de que estos métodos
son no-lineales. Se desarrolló además una caracterización del método para determinar aspectos
como orden computacional y dependencia de parámetros. Por otro lado, se demostró la necesidad
de desarrollar nuevas métricas para medir el desempeño de los algoritmos de proyección.
|
Page generated in 0.1339 seconds