• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 6
  • Tagged with
  • 40
  • 40
  • 18
  • 15
  • 13
  • 11
  • 7
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Flujo de carga óptimo estocástico con estabilidad transitoria para el estudio de la operación de la red de transmisión con nuevas tecnologías de control

Aldea Erices, Sebastián Andrés January 2015 (has links)
Ingeniero Civil Eléctrico / El problema de flujo de carga óptimo con restricciones de seguridad (o en inglés Security Constrained Optimal Power Flow -SCOPF-) en un sistema eléctrico de potencia (SEP) es un problema que consiste en determinar el despacho de cada máquina de la red, satisfaciendo los consumos de la misma, al menor costo posible y considerando soluciones que respeten las capacidades de los componentes eléctricos tanto antes como después de la ocurrencia de posibles fallas en el sistema. La solución a este problema significa, en la mayoría de los casos, una operación que subutilice la infraestructura de la red, elevando el costo de la operación del sistema. En este contexto, las tecnologías de control correctivas permiten operar un sistema eléctrico más cercano a las restricciones impuestas por su propia capacidad. Así, evaluar el efecto de la implementación de uno de estos esquemas correctivos y del tiempo de acción/latencia del mismo originada por posibles retrasos en la comunicación entre los diversos mecanismos que conforman el esquema, e implementar un método de resolución al problema de despacho óptimo económico con consideraciones de estabilidad angular, son los principales objetivos del trabajo. Esto se realiza mediante un modelo de optimización novedoso que incorpora explícitamente las ecuaciones diferenciales que representan la dinámica del sistema post-falla. Para la resolución del problema propuesto se utilizó un algoritmo PSO (Particle Swarm Optimization, por sus siglas en inglés) que permite lidiar de manera heurística con las complejidades de la formulación. Al estudiar el efecto del mecanismo de acción correctiva en sistemas de distinto tamaño sometidos a una falla trifásica cercana a bornes de uno de sus generadores de bajo costo se evidenció el notable aumento sobre el uso de la capacidad de la red, cuando la latencia de la acción correctiva es del orden de 0,2 segundos, aumentando notablemente la generación desde la zona exportadora hacia la importadora (hasta en un 35% en los ejemplos particulares de este trabajo).. En cuanto al algoritmo PSO propuesto para la resolución del problema de despacho óptimo se comprobó su exactitud en base a comparaciones con una búsqueda exhaustiva de la solución óptima sobre todo el dominio del problema. En los ejemplos de este trabajo, el algoritmo propuesto es capaz de entregar una solución en 0,46% del tiempo utilizado por la búsqueda exhaustiva (0,08 horas comparado con 18 horas) con el mismo nivel de exactitud.
32

Diseño y desarrollo de un sistema para la detección automática de retinopatía diabética en imágenes digitales

Arenas Cavalli, José Tomas Alejandro January 2012 (has links)
Memoria para optar al título de Ingeniero Civil Electricista / Memoria para optar al título de Ingeniero Civil Industrial / La detección automática de la patología oftalmológica denominada retinopatía diabética tiene el potencial de prevenir casos de pérdida de visión y ceguera, en caso de impulsar la exanimación masiva de pacientes con diabetes. Este trabajo apunta a diseñar y desarrollar un clasificador a nivel de prototipo que permita discriminar entre pacientes con y sin presencia de la enfermedad, por medio del procesamiento automático de imágenes de fondo de ojo digitales. Los procedimientos se basan en la adaptación e integración de algoritmos publicados. Las etapas desarrolladas en el procesamiento digital de las imágenes de retina para este objetivo fueron: localización de vasos sanguíneos, localización de disco óptico (DO), detección de lesiones claras y detección de lesiones rojas. Las técnicas utilizadas para cada una de las etapas fueron, respectivamente: Gabor wavelets y clasificadores bayesianos; características de los vasos y predicción de posición mediante regresores kNN; segmentación mediante fuzzy c-means y clasificación usando una red neuronal multicapas; y, operadores morfológicos ajustados óptimamente. La base de datos de imágenes para el entrenamiento y prueba de los métodos desarrollados cuenta con 285 imágenes de un centro médico local, incluyendo 214 normales y 71 con la enfermedad. Los resultados específicos fueron: 100% de precisión en la ubicación del DO en las 142 imágenes de prueba; identificación del 91,4% de las imágenes con lesiones claras, i.e., la sensibilidad, mientras se reconocieron 53,3% de las imágenes sin lesiones claras, i.e., la especificidad (84,1% de sensibilidad y 84,7% de especificidad a nivel de pixel) en las mismas 142 muestras; y, 97% de sensibilidad y 92% de especificidad en la detección de lesiones rojas en 155 imágenes. El desempeño en la ubicación de la red vascular es medido por el resultado del resto de los pasos. El rendimiento general del sistema es de un 88,7% y 49,1% en cuanto a sensibilidad y especificidad, respectivamente. Algunas medidas fundamentales son necesarias para la implementación a futuro. En primer lugar, acrecentar la base de datos de imágenes para entrenamiento y prueba. Además, es posible pulir cada una de las etapas intermedias de las cuatro grandes fases. Con todo, una ronda de implementación a nivel usuario de un prototipo general permitirá evaluación y mejora de los métodos diseñados y desarrollados.
33

Reingeniería de un Software para Reconocimiento de Imágenes

Krauss Benavente, Felipe Antonio January 2010 (has links)
El presente trabajo plantea la revisión de un software para el “Reconocimiento de bordes en imágenes aplicado a anillos de árboles”. Dicho producto logra satisfacer sus metas funcionales pero adolece de problemas en su diseño, lo cual provoca que la extensión del mismo se vuelva laboriosa e incluso inviable. Entre sus funcionalidades están la de aplicar distintos filtros a las imágenes, generar una malla inicial, aplicar un algoritmo de mejora en conjunto con los criterios de refinamiento y selección de un punto, y seleccionar puntos y segmentos que pueden formar parte de los anillos de los árboles. El objetivo de esta memoria es realizar un rediseño y posterior reimplementación de este software de reconocimiento de anillos de árboles, para lograr una extensión de sus funcionalidades actuales en lo que respecta al uso de polígonos como geometría inicial, la posibilidad de incorporar nuevos criterios para la mejora y selección del punto, la posibilidad de incorporar nuevos algoritmos de mejoramiento como también para la creación de la malla inicial o para la malla final. Para lo anterior se propone un proceso de desarrollo soportado en análisis y diseño por contrato. El resultado más relevante del presente trabajo es la obtención de un producto que permite la generación automática de mallas geométricas tanto para imágenes como para geometrías poligonales convexas, que además es fácilmente extensible en los aspectos mencionados.
34

Optimización y paralelización de un algoritmo de generación de Skeletons a partir de mallas geométricas aplicado a estructuras biológicas

Rojas Hernández, Iván Yerko January 2014 (has links)
Ingeniero Civil en Computación / El estudio cuantitativo de estructuras microscópicas 3D requiere de herramientas computacionales, tanto para realizar mediciones como para su visualización, dada su complejidad y gran volumen. Una de las herramientas para medir y visualizar estas estructuras es el skeleton. Un skeleton es la representacion simplificada de la estructura en forma de grafo, compuesta por nodos y segmentos. Si bien existen múltiples algoritmos para su generación, estos buscan generalmente mantener propiedades topológicas y geométricas del objeto de estudio. Actualmente se cuenta con la implementación de un algoritmo de generación de skeletons [2], basado en el algoritmo propuesto por Au et al [3]. Esta implementación, si bien entrega resultados satisfactorios, presenta tiempos de cálculo muy extensos. Dado lo anterior, es que esta memoriam tiene como objetivo analizar y optimizar el tiempo de ejecución de esta implementación. En este trabajo se realizaron optimizaciones seriales y la paralelización del cálculo. La optimización serial incluyó: (1) implementación del algoritmo con una nueva estructura de datos: Halfedge, (2) optimización en la actualización de costos de arcos, (3) optimización en el uso de la cola de costos y (4) optimización de estructuras de datos. La paralelización fue realizada sobre una de las etapas más demandantes del algoritmo usando la unidad de procesamiento gráfico (GPU). Para validar las optimizaciones y paralelización, se realizaron pruebas de la correctitud y speed-up alcanzado en: (1) modelos 3D creados simples, (2) modelos sintéticos de estructuras biológicas y (3) modelos de estructuras biológicas obtenidas de imágenes de microscopía. Con las optimizaciones y paralelización implementados, se logró una mejora sustancial en el tiempo, pasando de días a minutos o incluso segundos. Además, se verificó que estas mejoras mantienen los skeletons resultantes bien definidos, vale decir, mantienen las propiedades que deben cumplir.
35

Indexamiento en espacios no-métricos

Sepúlveda Benitez, Víctor Hugo January 2012 (has links)
Magíster en Ciencias, Mención Computación / Ingeniero Civil en Computación / La mayoría de los sistemas de recuperación de información multimedia utilizan algún esquema de indexamiento para acelerar las búsquedas por similitud en una colección de datos, evitando un análisis detallado de grandes porciones de la colección. Estos enfoques suelen utilizar la desigualdad triangular para descartar elementos. Esto requiere que la distancia de comparación satisfaga los postulados métricos. Sin embargo, estudios recientes muestran que para ciertas aplicaciones resulta apropiado el uso de distancias no métricas, que pueden entregar mejores juicios de la similitud de dos objetos. En esos casos, la falta de la desigualdad triangular hace imposible el uso de los enfoques tradicionales para el indexamiento. En esta tesis se estudian, implementan y prueban las principales técnicas del estado del arte para indexar espacios no métricos genéricos, en un ambiente que permite concluir acerca de varios aspectos y las ventajas de las diferentes estrategias probadas. Las técnicas consideradas fueron DynDex, LCE, QIC y TriGen, aunque la técnica QIC no es comparada con las demás pues falla en ser adecuadamente aplicable a los diferentes espacios en estudio. Se utilizan varios espacios no métricos con distintas características tanto en el índice de fallo de la desigualdad triangular, como en la capacidad de indexamiento. Adicionalmente, se propone e implementa CP-Index, una técnica de indexamiento aproximado original. Esta técnica hace uso de Clustering y de Pivotes para acelerar las búsquedas en espacios no métricos, sin comprometer significativamente la calidad de la respuesta. CP-Index se adapta dinámicamente a las condiciones del espacio no métrico, usando pivotes cuando la fracción de tríos que rompen la desigualdad triangular es pequeña, pero buscando secuencialmente los candidatos más prometedores cuando el uso de pivotes se vuelve inútil para descartar elementos. Una conclusión importante de esta investigación es que la mayoría de las técnicas que tratan de generar un resultado exacto durante las búsquedas por similitud resultan ser demasiado costosas para los conjuntos de datos utilizados. En su lugar, las técnicas aproximadas tienden a generar un mucho mejor trade-off de trabajo y calidad. Por ejemplo, LCE resulta ser una técnica excesivamente costosa tanto en tiempo de construcción como en tiempo de consulta pues modifica la distancia reduciendo mucho el poder de descarte de los índices tradicionales. Por otro lado, CP-Index obtiene resultados ligeramente superiores a los de DynDex y TriGen, pero con la ventaja de no necesitar exhaustivas pruebas y ajustes para adaptarse a las características del espacio. De este modo, en aquellos espacios en los que DynDex supera a TriGen, CP-Index se comporta igual o mejor que el primero, mientras que en los espacios en los que TriGen funciona mejor, CP-Index también obtiene resultados ligeramente superiores.
36

Detección de Anomalías en Procesos Industriales Usando Modelos Basados en Similitud

León Olivares, Alejandro Samir January 2012 (has links)
La detección de anomalías en procesos industriales es un tema de alto impacto que ha sido analizado y estudiado en diversas áreas de la ingeniería e investigación. La mayor parte de los métodos de detección actualmente disponibles posibilitan el estudio de las irregularidades encontradas en el historial de un proceso, ayudando a extraer información significativa (y a veces crítica) en una amplia variedad de aplicaciones, y convirtiéndose de este modo en parta fundamental e integral de esquemas de reducción de costos tanto humanos como económicos en la industria contemporánea. El objetivo general de este trabajo es desarrollar e implementar un enfoque modular de detección de anomalías, aplicable a procesos industriales multivariados y fundado en el análisis de residuos generados a partir de modelos no paramétricos basados en similitud (similarity-based modeling, SBM). La herramienta consiste principalmente de un sistema de generación automática de modelos SBM, una metodología de estudio de eventos y un algoritmo estadístico de detección. El trabajo realizado se enmarca en un proyecto de colaboración conjunta entre las empresas CONTAC, INGENIEROS LTDA. y ENDESA-CHILE. Gracias a esto, ha sido posible evaluar el sistema propuesto utilizando datos de operación correspondientes a una central termoeléctrica de ciclo combinado perteneciente a la segunda empresa ya mencionada. Las comparaciones en cuanto al desempeño del sistema de modelación implementado permiten concluir que el algoritmo es capaz de generar una representación más apropiada del proceso, basado en el error obtenido con la técnica de modelación SBM, la cual es cercana al 25% del error obtenido con la técnica de modelación lineal en los parámetros. Además, la metodología de estudio de eventos permite detectar correctamente las variables que no aportan al objetivo de detección de un evento en particular, así como también identifica las variables más significativas para lograr tal propósito, reduciendo el número de variables analizadas y con esto, los requerimientos de cómputo de operación en línea. La validación de los resultados entregados por el método de detección de anomalías desarrollado, permite aseverar que la utilización de modelos no-paramétricos tipo SBM, en combinación con la metodología de estudio de eventos y el algoritmo estadístico de detección, resultan eficaces a la hora de generar alarmas y detectar las anomalías estudiadas.
37

Reconocimiento Automático de Bordes en Imágenes Aplicado a Anillos de Árboles

Aguilar Vergara, Pablo Agustín January 2009 (has links)
No description available.
38

Plataforma de aprendizaje de segundo idioma con ASR

Olivares Cotal, José Luis January 2013 (has links)
Ingeniero Civil Electricista / Las redes de datos que permiten acceder a la información desde cualquier lugar del mundo están cada vez más cerca del publico en general. Este hecho, asociado al empleo de browser o navegadores ampliamente difundidos y de fácil uso, posibilita el desarrollo de sistema de enseñanza en linea. Esta memoria se centra en el desarrollo de una plataforma de enseñanza basada en las redes y sistemas Web. Se emplea la técnica de Reconocimiento Automático de Voz (Automatic Speech Recognition, ASR), una base de datos relacional llamada Postgresql y un servidor HTTP cuyo nombre es Tomcat. Para el desarrollo se emplearon lo modelos Cliente Servidor, Vista Controlador y la Arquitectura AJAX. La estructura de la base de datos y las lecciones se diseñaron de manera que futuras revisiones se puedan realizar con facilidad. Se destaca el empleo de un formato ligero y compatible para la transferencia de datos por medio de JavaScript Object Notation. El programa permite el almacenamiento de las lecciones, el registro de la información de uso y el envío-recepción de datos asincrónicos entre el servidor y el cliente. El trabajo finaliza con un análisis de estabilidad y robustez del sistema por medio de la carga de 150 usuarios simultáneos. Para realizar esta prueba fue empleado Jmeter, un software gráfico para el análisis de carga y desempeño de sistemas Web. Como trabajo a futuro se propone el empleo de HTML5 como lenguaje de reemplazo del Applet, para el envío de los datagramas de voz. El sistema al estar basado en servicios se puede configurar para trabajar en paralelo de modo que se está frente a un sistema escalable a nivel de servicios.
39

Identificación de especies vegetales utilizando dispositivos móviles

Valenzuela Pérez, Sebastián Ulises January 2013 (has links)
Ingeniero Civil en Computación / Las plantas juegan un rol determinante para la vida humana (y del planeta en general), sin embargo la mayoría de las personas hoy en día saben poco de las especies vegetales que las rodean: si se puede usar como alimento, medicina, si tiene alguna significancia especial para algún grupo humano, etc. Tal conocimiento forma parte del saber humano, sólo que no se ha masificado. Por otra parte, actualmente somos testigos de cómo las tecnologías móviles son accedidas por un público más amplio y de cómo se vuelven más potentes, siendo muy común la disponibilidad de un teléfono, conexión a internet, sistema de posicionamiento, etc. Entre estos dispositivos destacan los que usan los sistemas operativos iOS y Android, que se han posicionado por las facilidades que presentan para el desarrollo de aplicaciones como la documentación en línea, el soporte de amplias comunidades, confiabilidad y estabilidad. Las tecnologías de reconocimiento de imágenes se han introducido con fuerza en las últimas décadas tratando de extraer información semántica de las imágenes: Reconocimiento facial, clasificación de imágenes en medicina, astronomía, entre otras. Dada la naturaleza humana, siendo la visión el sentido más importante, las tecnologías de este tipo constituyen un área de muchísimo interés para la evolución de la tecnología. Con el afán de formar conciencia sobre las especies vegetales que se tienen al alcance, nace la idea de implementar una guía de campo en la que sea fácil hacer búsquedas, tan fácil como hacer una observación de la planta en cuestión, esta observación corresponde a la toma de una fotografía a partir de la cual se entregue el nombre de la especie. Una aplicación que hace esta tarea es leafsnap para el sistema operativo iOS, en esta memoria se presenta el desarrollo de un prototipo que implementa una alternativa para la identificación de especies vegetales por reconocimiento de imágenes para el sistema operativo android. El desarrollo de esta memoria apunta ampliar el impacto de leafsnap, considerando un área geográfica distinta, usuarios de dispositivos android. Además, de contar un servicio web que realice las búsquedas para la identificación de especies, que no requiera la interacción de una aplicación específica sino que sea accesible por cualquiera que desee usarlo.
40

Improvements in illumination compensation for face recognition under noncontrolled illumination conditions

Castillo Faune, Luis Ernesto January 2017 (has links)
Doctor en Ingeniería Eléctrica / Face recognition depends strongly on illumination conditions, especially in non-controlled scenarios where face illumination is not homogeneous. For this reason, illumination compensation is crucial in this task. Several methods for illumination compensation have been developed and tested on the face recognition task using international available face databases. Among the methods with best results are the Discrete Cosine Transform (DCT), Local Normalization (LN) and Self-Quotient Image (SQI). Most of these methods have been applied with great success in face recognition using a principal component classifier (PCA). In the last decade, Local Matching Gabor (LMG) classifiers have shown great success in face classification relative to other classifiers. In all cases, the illumination compensation methods improve the face recognition rates in unevenly illuminated images, but affect negatively in some well illuminated images. The aim of this thesis is to propose improvements to the current illumination compensation methods to obtain improved face recognition rates under different illumination conditions. Using genetic algorithms (GAs), parameters of the SQI method were selected to improve face recognition. The parameters optimized by the GA were: the fraction of the mean value within the region for the SQI, selection of Arctangent, Sigmoid, Hyperbolic Tangent or Minimum functions to eliminate noise, and the weight values of each filter are selected within a range between 0 and 1. The results obtained after using the proposed method were compared to those with no illumination compensation and to those previously published for SQI method. Four internationally available face databases were used: Yale B, CMU PIE, AR, Color FERET (grayscaled), where the first three contain face images with significant changes in illumination conditions, and the fourth one contains face images with small changes in illumination conditions. The proposed method performed better than SQI in images with non-homogeneous illumination. In the same way, GAs were used to optimize parameters of the modified LN and SQI methods in cascade for illumination compensation to improve face recognition. The main novelty of this proposed method is that it applies to non-homogeneous as well as homogeneous illumination conditions. The results were compared to those of the best illumination compensation methods published in the literature, obtaining 100% recognition on faces with non-homogeneous illumination and significantly better results than other methods with homogeneous illumination. Also, the DCT, LN, and SQI illumination compensation methods were optimized using GAs to be used with the LMG face classifier. Results were tested on the FERET international face database. Results show that face recognition can be significantly improved by modified versions of the current illumination compensation methods. The best results are obtained with the optimized LN method which yields a 31% reduction in the total number of errors in the FERET database. Finally, an extension of the LN method using Kolmogorov-Nagumo-based statistics was proposed to improve face recognition. The proposed method is a more general framework for illumination normalization and it was showed that LN is a particular case of this framework. The proposed method was assessed using two different classifiers, PCA and LMG, on the standard face databases Extended Yale B, AR and Gray FERET. The proposed method reached significantly better results than those previously published for other versions of LN on the same databases.

Page generated in 0.1179 seconds