• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 13
  • Tagged with
  • 84
  • 84
  • 18
  • 18
  • 17
  • 15
  • 15
  • 15
  • 15
  • 15
  • 12
  • 10
  • 10
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Identificación autónoma de fallas en sistemas monitoreados basado en redes adversarias generativas (GANS)

Garrido Cáceres, Cristóbal Nicolás January 2018 (has links)
Ingeniero Civil Mecánico / El presente trabajo propone y valida un procedimiento para clasificación de fallas usando señales de vibraciones mecánicas en rodamientos con fallas inducidas. Este procedimiento consiste en obtener imágenes tiempo-frecuencia para entrenar una Red Adversaria Generativa (GAN). Luego mediante algoritmos de clustering aplicados a salidas de su arquitectura, se obtienen los grupos con fallas de iguales síntomas y características. Para esto se ensayan diversas configuraciones considerando dos tipos de imágenes (espectrogramas y escalogramas), cuatro arquitecturas GAN (DCGAN, InfoGAN, MRGAN y Wasserstein GAN) y dos algoritmos de clustering (K-means y spectral clustering). En primera instancia se repasan los fundamentos de las fallas en rodamientos: sus síntomas y metodologías usadas para su diagnóstico; luego se presentan los antecedentes respecto a los diversos componentes del procedimiento y los criterios de evaluación. Parea su validación se usan sets de datos de vibraciones mecánicas con fallas ya clasificadas (MFPT y CWRU). Mediante indicadores se comparan la clasificación real con la obtenida, resaltando las mejores configuraciones para el procedimiento. Los ensayos muestran que las arquitecturas GAN InfoGAN y MRGAN junto al algoritmo K-means poseen un comportamiento más estable en el procedimiento. Es más, mediante el estudio de la función de costos es posible determinar si el entrenamiento resulta efectivo o no, proponiéndose un estudio más acabado respecto a un criterio de identificación para obtener mejores desempeños. Además se realiza un análisis entre las clasificaciones obtenidas y las reales teniéndose consistencia entre los resultados obtenidos por el procedimiento propuesto y los entregados por los métodos de diagnóstico usados actualmente, ya sea mediante el estudio de los mismo o consultando bibliografía. También se incorpora un set de ensayo de degradación continua. Usando la mejor configuración de las pruebas anteriores se logran detectar estados de falla. Sin embargo el diagnostico no puede ser concluyente ya que aparecen nuevos fenómenos en estos datos como fallas multimodales, no consideradas inicialmente. Finalmente se proponen algunas extensiones a fin de poder estudiar de manera correcta este último caso que resulta ser más cercano a las aplicaciones que los dos primeros, como considerar la secuencia de las mediciones o determinar anteriormente los modos de fallas presentes en los datos.
32

Herramienta de resolución de triangulaciones geométricas

Díaz Palacios, Javier Ulises January 2018 (has links)
Memoria para optar al título de Ingeniero Civil en Computación / La triangulación de Delaunay es una entidad geométrica con muchas aplicaciones en computación gráfica e ingeniería. Por lo general, su construcción es un problema difícil que a menudo viene acompañado con restricciones geométricas y de calidad. Para facilitar la experimentación de algoritmos relativos al problema de Delaunay, se presenta una herramienta con mejoras en simplicidad, desempeño y robustez frente a otras opciones existentes. En primer lugar, se ofrece una implementación sólida del algoritmo de Delaunay incremental con intercambio de aristas, el cual es un método conocido que aborda el problema agregando cada punto de la triangulación secuencialmente. Esta implementación maneja las estructuras de datos de forma sencilla (triángulos con punteros a sus vecinos), por lo que es fácil de extender. Además, asegura que las triangulaciones siempre quedan bien definidas, anulando cualquier operación que invalide la triangulación de acuerdo con un criterio de robustez sobre los triángulos. En segundo lugar, se implementa un algoritmo que adapta las triangulaciones para satisfacer restricciones en las aristas, el cual funciona por medio de una idea sencilla que reusa conceptos del algoritmo de Delaunay incremental. En cada iteración se localizan los triángulos que intersectan la arista que se quiere respetar y se intercambian las diagonales secuencialmente hasta que sea respetada. Finalmente, el algoritmo Lepp-Centroide desarrollado por la profesora Rivara y coautores permite obtener una triangulación de buena calidad (ángulo mínimo acotado) por medio de la inserción de nuevos puntos. La implementación de esta memoria se comporta como ha sido establecido en estudios teóricos y prácticos previos, lo que significa que se consigue mejorar la calidad de las triangulaciones insertando pocos puntos y con restricciones geométricas menos fuertes.
33

The vocludet galaxy cluster finder: optimization, validation and visualization

Pereira Gallardo, Sebastián January 2016 (has links)
Magíster en Ciencias, Mención Computación / Actualmente la astronomía se enfrenta al reto de manejar y analizar el gran volumen de información que se genera cada día. Muchas de las preguntas sin respuesta que existen en la actualidad requieren medidas de alta precisión de los diversos componentes del universo. Por esta razón, se necesitan algoritmos de procesamiento de datos, que sean capaces de tomar la cantidad masiva de datos y procesarla para obtener catálogos enriquecidos de información que sean de fácil acceso. Los cúmulos de galaxias, siendo altamente masivos, nos permiten trazar las regiones de alta densidad de distribución de la materia, por lo que una muestra completa proporciona entre otros, una descripción de la formación de estructuras en el universo temprano. Vocludet es un algoritmo de detección de cúmulos de galaxias, que detecta estos objetos utilizando las propiedades geométricas y astrofísicas de las galaxias. Este trabajo describe el análisis, validación y optimización de Vocludet, a través del uso de los datos artificiales, obtenidos a partir de una simulación de distribución de materia. Para la validación, los resultados del algoritmo se comparan con el catálogo de datos simulados, en términos de tasa de recuperación y pureza, es decir, qué fracción del catálogo de referencia se recupera y qué fracción de los grupos detectados son reales, respectivamente. La simulación de datos utilizada consiste en un catálogo artificial del Milennium Run, una gran simulación del universo. Este catálogo contiene información acerca del agrupamiento de galaxias que puede ser usado para comparar con los resultados obtenidos por Vocludet. Además, una herramienta de visualización se desarrolla para mostrar de forma interactiva los grupos en cualquier plataforma que posea un navegador de Internet moderno. Esto último con el propósito de realizar debugging, así como también presentar el resultado final. Los resultados finales indican que Vocludet tiene una tasa de recuperación de 59% en general y 66% de pureza. Sin embargo, cuando se restringe el análisis sólo a los cúmulos con más de 10 galaxias, las tasas de recuperación y pureza son 75% y 90% respectivamente. Además, otras propiedades de interés de los cúmulos tales como dispersiones de velocidad presentan un estrecho acuerdo con los valores correspondientes para los cúmulos de referencia, lo que refuerza aún más la evidencia de Vocludet como un detector de clúster fiable.
34

Modelamiento de confiabilidad y análisis para flotas: Un enfoque basado en clustering para manejo de datos no homogéneos

Martínez Salazar, Ignacio Nicolás January 2017 (has links)
Ingeniero Civil Mecánico / En gestión de activos físicos, el cálculo actual de la confiabilidad de un equipo es realizado sobre una muestra de datos no homogénea, lo que significa que existen una o más características que no son la misma para todos los componentes de la población. Debido a ello el análisis de confiabilidad resulta ser poco preciso, obteniéndose de esta manera, resultados que son poco representativos de la realidad operacional de los equipos. Es por ello que, mediante técnicas de aprendizaje no supervisado, en particular clustering, se pretenden identificar las sub poblaciones existentes en la muestra que tienen como principal característica ser un conjunto homogéneo de datos y a partir de éstas calcular la confiabilidad para la flota. La metodología a seguir consta de tres etapas principales, la primera consiste en el análisis del conjunto de datos, en donde se desarrollarán los algoritmos Principle Component Analysis y Spectral feature selection mediante el software MATLAB. La segunda etapa consiste en identificar los clusters dentro del conjunto de datos mediante el desarrollo de los algoritmos k-means y DBSCAN. Por último se analizará y calculará la confiabilidad para cada cluster (sub-población homogénea) y para la flota en base a los modelos encontrados para los clusters (población no homogénea). En cuanto a los resultados obtenidos, se tiene que se redujeron las dimensiones de los datos de 5 a 3 covariables por medio de los algoritmos PCA y SPEC. Luego a través de k-means y DBSCAN se identificaron los clusters del conjunto reducido de datos. El análisis de confiabilidad realizado a cada cluster muestra métricas de confiabilidad muy distintas entre ellos, con hasta una diferencia de aproximadamente el 87 %. La automatización en la lectura y procesamiento de datos mediante las técnicas de aprendizaje no supervisado, en concreto clustering, son una gran herramienta para identificar, etiquetar y clasificar las características que representan a cada conjunto de datos, permitiendo desarrollar un análisis de confiabilidad más representativo de la realidad operacional de los equipos. A través de los clusters es posible llevar a cabo un estudio enfocado a los equipos que comparten las mismas condiciones de operaciones dentro de una misma flota. Lo que nos permite tener un mejor pronóstico de los tiempos de falla de los equipos y una mejor administración de los recursos destinados a la mantención.
35

El algoritmo de la Máquina de Soporte Vectorial aplicado a la detección de personas en imágenes de intensidad

Benavides Vidal, Diego Armando January 2015 (has links)
Describe detalladamente las bases teóricas de un algoritmo que implementa una máquina de aprendizaje conocido como el algoritmo de la Máquina de Soporte Vectorial que ha demostrado tener mejores resultados para la extracción de patrones de datos y tareas de clasificación que otros modelos conocidos. Para demostrar estos resultados presenta la implementación del modelo aplicado al problema de detección de personas en imágenes de intensidad que comúnmente se utiliza en sistemas de seguridad y video vigilancia. / Tesis
36

Diseño e integración de un módulo para detectar y categorizar opiniones de reclamo en un sistema de análisis Web aplicado al rubro de las telecomunicaciones

Aguilar Ruiz, Joaquín Esteban January 2017 (has links)
Ingeniero Civil Industrial / El objetivo general de esta memoria de titulo es diseñar e integrar un módulo para detectar y categorizar opiniones de reclamos en un sistema de análisis web utilizando herramientas de Ma- chine Learning. Este trabajo se desarrolla dentro del marco del proyecto OpinionZoom, que es un proyecto de investigación y desarrollo concursado por InnovaChile de CORFO y dirigido por el Web Intelligence Centre (WIC) de la Universidad de Chile. Este proyecto busca aumentar el co- nocimiento que tienen las organizaciones sobre individuos pertenecientes a la industria que sirven, utilizando los datos públicos de los usuarios chilenos de Twitter. En esta etapa de OpinionZoom surge la oportunidad de utilizar el contenido que los usuarios envían a las cuentas de Twitter de las empresas en referencia a los reclamos, cuyo interés nace de las entrevistas y requerimientos de los comienzos de este proyecto, en conjunto con el poco provecho que extraen las empresas de esta red social. Esta memoria de título pretende comprobar la hipótesis de investigación de utilizar algoritmos de Data Mining y Machine Learning que permitan identificar opiniones de reclamos en Twitter y clasificarlas en categorías predefinidas. Lo que se divide en dos etapas, la primera consiste en identificar opiniones de reclamos en Twitter, algo que no ha sido investigado hasta el momento, y como segunda etapa categorizar el contenido de estos mensajes en función de los productos y servicios de las empresas. Para la validación de esta hipótesis se decidió por utilizar el segmento de mayor relevancia en términos de reclamos en la red social Twitter: Telecomunicaciones. El potencial de lo desarrollado en este trabajo es entregar información útil a la empresas sobre los reclamos, a nivel agregado, que sus clientes y usuarios expresan en la red social de Twitter, de modo de que puedan tomar mejores decisiones. Se utilizó un set de datos que abarcó toda la historia de cuatro cuentas de Twitter, cuya elección se basó en la relevancia en el ámbito de los reclamos en la red social. Los datos se modelaron con el enfoque Bag-Of-Words y se implementaron 4 algoritmos de Machine Learning para clasificar los tweets en una primera etapa dentro de 4 clases, incluida reclamo, y en una segunda etapa en 9 categorías predefinidas. Para la primera etapa el algoritmo Support Vector Machines entregó los mejores resultados con un F-Measure de 0.823 para la clase Reclamo. Y para la segunda etapa los mejores resultados se lograron en Support Vector Machines y Decision Trees con un accuracy de 81.3%. Lo que permite validar la hipótesis de investigación. Finalmente, se diseñó e implemento el módulo para detectar y categorizar reclamos en la plataforma web de OpinionZoom. / Este trabajo ha sido parcialmente financiado por el proyecto CORFO 13IDL2-23170
37

Diseño e implementación de un algoritmo de pre-procesamiento de datos sísmicos en túneles utilizando fuentes sísmicas controladas

Peña Álvarez, Gerardo Andrés January 2017 (has links)
Ingeniero Civil Eléctrico / Las crecientes necesidades energéticas, de conectividad y de extracción de minerales, además del aumento de las exigencias medioambientales hacen del uso de túneles una buena alternativa al momento de desarrollar un proyecto. Construir túneles no es una tarea fácil, el riesgo que conlleva el excavar en roca y mantener la estructura sin que se colapse por el peso del sitio, requiere de estudios acabados de la geología del lugar antes y durante la construcción del túnel. Es en estos estudios donde se utilizan sondajes junto con las técnicas de prospección sísmica. En este trabajo de título se estudió un método de prospección sísmica el cual utiliza cargas explosivas como fuentes sísmicas controladas y acelerómetros para registrar las ondas reflejadas por estructuras geológicas que se encuentran más adelante de la cara del túnel, método probado y utilizado por una empresa privada, la cual no entrega información a fondo del funcionamiento del sistema por motivos comerciales. Durante el estudio del método, se generó un algoritmo de pre-procesamiento de trazas sísmicas obtenidas en túneles que hace filtrados secuenciales de las señales y las prepara para aplicarles tomografía y estimar las estructuras geológicas en la sección del túnel que no ha sido excavada. El algoritmo de pre-procesamiento generado se aplicó a dos conjuntos de datos sísmicos obtenidos en un túnel, en dos niveles de avance consecutivos. Los resultados obtenidos se compararon con un software comercial obteniéndose en la mayoría de los pasos aplicados resultados similares o mejores al software comercial, lo cual indica que el estudio realizado puede ser utilizado para desarrollar un nuevo producto, que entregue de manera confiable y segura, la información que los profesionales necesitan durante la construcción de túneles modernos. Finalmente, se deja a libre disposición de la comunidad docente y estudiantil el algoritmo diseñado, el cual da un primer paso en estudio del área de procesamiento de señales sísmicas en túneles y se motiva a la comunidad a continuar y perfeccionar el trabajo realizado, con el objetivo futuro de diseñar el hardware y software necesario para realizar las mediciones en terreno y representar los resultados de manera clara y transparente al operador.
38

Indexación Comprimida de Imágenes

Valenzuela Serra, Daniel Alejandro January 2009 (has links)
No autorizada por el autor para ser publicada a texto completo / El continuo aumento de los volúmenes de información almacenada digitalmente ha fomentado el desarrollo de técnicas para brindar acceso y búsqueda de manera eficiente a los datos. En particular, el manejo de grandes colecciones de imágenes es un problema de gran interés. Un enfoque es tratar las imágenes como secuencias de texto bidimensional. En este contexto, han sido planteadas recientemente dos estructuras de autoindexación para colecciones de imágenes, basadas en extender autoíndices de texto unidimensional. Estas estructuras almacenan la colección en espacio proporcional al requerido para almacenar la colección comprimida, permitiendo a la vez el acceso directo a cualquier parte de la colección y la búsqueda eficiente de patrones en ella. Dos tipos de autoíndices para secuencias de texto son el Arreglo de Sufijos Comprimido y el Índice FM, y en ellos se basan las soluciones para imágenes. Este trabajo se centra en la implementación de esos dos autoíndices para imágenes. Se implementaron distintas variantes para ambas estructuras buscando la mejor manera de adaptarlas a secuencias bidimensionales, y mejorando significativamente varios de los algoritmos originales. Finalmente se diseñaron y ejecutaron experimentos para comparar las distintas variantes de ambos índices, tanto en términos de espacio requerido por las estructuras, como de tiempo en responder las consultas de acceso y búsqueda de patrones. Las estructuras basadas en el Arreglo de Sufijos Comprimido resultaron mejores en cuanto a tiempo, mientras que aquellas basadas en el Índice FM resultaron mejores en términos de espacio requerido, cuando el rango de colores es pequeño. Por ejemplo, con el Arreglo de Sufijos Comprimido somos capaces de almacenar una colección utilizando un 80% del espacio que requeriría la representación plana, pudiendo dar acceso a cualquier subimagen a una velocidad aproximada de 1 megapixel por segundo. Con esta estructura somos capaces de contar las ocurrencias de un patrón a una velocidad aproximada de 0,5 megapixeles por segundo, y podemos localizar la posición de cada ocurrencia en menos de 0,1 milisegundo. Sobre colecciones con un rango de color más pequeño, utilizando el Índice FM podemos alcanzar niveles de compresión del 50 %, pudiendo llegar al 25% si aceptamos pérdida de información. Con esta estructura podemos acceder a cualquier subimagen y realizar la búsqueda de patrones a una velocidad de 0,1 megapixel por segundo.
39

Mejoramiento y evaluación de técnicas de interpolación para la animación de mallas faciales

Peña Araya, Vanessa Carolina January 2012 (has links)
Ingeniera Civil en Computación / En la actualidad, la animación de mallas faciales es un área de investigación muy amplia, con una gran cantidad de trabajos publicados con distintas técnicas desarrolladas. Como trabajo de memoria de ingeniería, un alumno del DCC desarrolló una aplicación en la que implementó un algoritmo de interpolación propio para animar una malla facial. Los principales objetivos de esta memoria son saber qué tan competitivo es este algoritmo con respecto a aquellos usados en la actualidad además de definir un buen criterio para esta comparación. Asimismo, se busca identificar otras variables en los algoritmos que pudieran generar mejorías en la calidad de la malla facial. Todo esto con el fin último de mejorar la calidad de la malla. Se propone una métrica de calidad de la malla facial que entrega información de manera rápida y sin necesidad de sujetos de prueba. Esta métrica muestra una alta relación con la evaluación perceptiva realizada a una animación específica en donde se pronuncian los sonidos que componen la base de todos los sonidos posibles. Se implementaron tres algoritmos seleccionados de la bibliografía estudiada: uno de interpolación geométrica, uno de deformación de forma libre orientada a superficies y Planar Bones. Además se propuso e implementó un algoritmo de interpolación nuevo. El diseño de la implementación permite variaciones de parámetros de los algoritmos. La comparación se hizo con una selección de 18 combinaciones entre todos los algoritmos implementados y sus variantes. Al aplicar la métrica se concluye que el algoritmo de la aplicación legada, sin ser el mejor, presenta buenos resultados en comparación a otros algoritmos similares. Además, las variantes consideradas sí muestran mejorías en la superficie de la malla. Sin embargo, se observó que los parámetros de estas variantes deben ser bien escogidos puesto que sino se obtiene el efecto contrario.
40

Teselación delaunay de cuboides para mallas mixtas 3D

Contreras Lobos, David Gabriel January 2013 (has links)
Ingeniero Civil en Computación / El modelamiento de problemas que requieren una solución aplicando métodos numéricos como el método de volúmenes finitos necesita una malla geométrica (discretización compuesta de celdas simples tales como triángulos en 2D y tetraedros en 3D) que represente de la mejor forma posible al dominio a estudiar. Un método de generación de mallas geométricas basado en octrees genera, en su proceso de refinamiento, cuboides que presentan a lo más un punto extra en cada arista, conocidos como elementos 1-irregulares, los cuales deben ser teselados en elementos finales. Las mallas mixtas estudiadas son teselaciones de Delaunay compuestas de 7 elementos coesféricos (todos sus vértices están en la superficie de una esfera) finales: tetraedro, cuboide, prisma, pirámide, complemento de tetraedro, prisma deformado y complemento de tetraedro deformado. Esta memoria se enfoca en el ámbito de teselaciones Delaunay sobre cuboides 1-irregulares para mallas mixtas en 3D con el objetivo de minimizar la cantidad de elementos usados en cada teselación, ya que esto afecta directamente el desempeño de un simulador. Se desarrollaron dos herramientas que facilitan el análisis de las teselaciones resultantes de cuboides 1-irregulares, generados por bisección (los puntos extra bisectan a las aristas) y generados por intersección (los puntos extra se ubican arbitrariamente). La primera herramienta desarrollada se encarga de la generación de datos y estadísticas que permiten analizar la teselación de cualquier cuboide 1-irregular y clasificar a qué tipo de poliedro corresponden sus elementos. Se implementó un algoritmo que permite encontrar una teselación Delaunay formada por elementos coesféricos sobre un conjunto de puntos arbitrarios, el cual fue aplicado posteriormente sobre los distintos cuboides estudiados. La segunda herramienta consiste en una aplicación GUI que permite la visualización de la teselación de cualquier cuboide 1-irregular generado por bisección especificando el tamaño del cuboide base, permitiendo interactuar independientemente con cada elemento final generado y visualizar su centroide y circuncentro. El análisis de las teselaciones de los cuboides 1-irregulares arrojó la identificación de 31 elementos coesféricos adicionales a los 7 elementos previamente conocidos, 17 en cuboides generados por bisección y 14 exclusivos de cuboides generados por intersección. Sin embargo, los 7 elementos originales representan la gran mayoría del total de apariciones en todos los cuboides estudiados: más del 95% en cuboides generados por bisección y cerca del 97% en el caso de intersección, donde además, menos del 0,07% corresponde a elementos encontrados exclusivamente en este caso. Al mismo tiempo, se realizó un análisis de las teselaciones de cuboides 1-irregulares generados por bisección bajo distintos criterios de tal manera de minimizar el número de elementos finales distintos permitiendo agregar arcos y caras interiores a la teselación obtenida. Por ejemplo, agregando caras interiores, cerca del 96,9% del total de apariciones corresponde a los 7 elementos originales. Además, se identifican proporciones óptimas del cuboide 1-irregular base para obtener teselaciones generadas por bisección que permiten la aplicación del método de volúmenes finitos. Todas las teselaciones son apropiadas si el cuboide 1-irregular tiene una razón entre su lado más largo y su lado más corto menor o igual a √2.

Page generated in 0.096 seconds