• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • Tagged with
  • 6
  • 6
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Extraction and classification of objects from astronomical images in the presence of labeling bias

Cabrera Vives, Guillermo January 2015 (has links)
Doctor en Ciencias, Mención Computación / Giga, tera y petabytes de datos astronómicos están empezando a fluir desde la nueva generación de telescopios. Los telescopios de rastreo escanean una amplia zona del cielo con el fin de mapear la galaxia, nuestro universo, y detectar fuentes variables como la explosion de estrellas (o supernovas) y asteroides. Al igual que en otros campos de la ciencia observacional, lo único que podemos hacer es observar estas fuentes a través de la luz que emiten y que podemos capturar en nuestras cámaras. Debido a la gran distancia a la que estos objetos se encuentran, aún cuando podemos tener una caracterización estimada de estas fuentes, es imposible conocer las propiedades reales de ellas. En esta tesis, proponemos un método para la extracción de los llamados perfiles de Sérsic de fuentes astronómicas y su aplicación a clasificación morfológica de objetos. Este perfil de Sérsic es un modelo paramétrico radial asociado con la morfología de galaxias. La novedad de nuestro enfoque es que convierte la imagen 2D en un perfil radial 1D utilizando curvas de nivel elípticas, por lo que incluso cuando el espacio de parámetros de Sérsic es el mismo, la complejidad se ve reducida 10 veces en comaración a ajustes de modelos en 2D de la literatura. Probamos nuestro método sobre simulaciones y obtenemos un error de entre un 40% y un 50% en los parámetros de Sérsic, mientras que obtenemos un chi cuadrado reducido de 1,01. Estos resultados son similares a los obtenidos por otros autores, lo que sugiere que el modelo de Sérsic es degenerado. A su vez, aplicamos nuestro método a imágenes del SDSS y mostramos que somos capaces de extraer la componente suave del perfil de las galaxias, pero, como era de esperar, fallamos en obtener su estructura más fina. También mostramos que las etiquetas creadas por los seres humanos son sesgadas en términos de parámetros observables: al observar galaxias pequeñas, débiles o distantes, la estructura fina de estos objetos se pierde, produciendo un sesgo en el etiquetado sistemático hacia objetos más suaves. Creamos una métrica para evaluar el nivel de sesgo en los catálogos de las etiquetas y demostramos que incluso etiquetas obtenidas por expertos muestran cierto sesgo, mientras que el sesgo es menor para etiquetas obtenidas a partir de modelos de aprendizaje supervisado. Aun cuando este sesgo ha sido notado en la literatura, hasta donde sabemos, esta es la primera vez que ha sido cuantificado. Proponemos dos métodos para des-sesgar etiquetas. El primer método se basa en seleccionar una sub-muestra no-sesgada de los datos para entrenar un modelo de clasificación, y el segundo método ajusta simultáneamente un modelo de sesgo y de clasificación a los datos. Demostramos que ambos métodos obtienen el sesgo más bajo en comparación con otros conjuntos de datos y procedimientos de procesamiento.
2

Síntesis de Algoritmos para Locomoción de Robots Modulares Reconfigurables

Torres Faúndez, Fernando Francisco January 2012 (has links)
Los Robots Modulares Reconfigurables son sistemas que han despertado un gran interés científico durante los últimos años. Ellos corresponden a un caso especial de Materia Programable, donde es posible cambiar la forma y función del sistema modular mediante, por ejemplo, la reconfiguración de sus partes. Los sistemas robóticos modulares están constituidos por diversas unidades capaces de obtener información autónomamente, procesándola de forma distribuida o centralizada. Algunas de las interrogantes fundamentales de esta área de investigación son cómo distribuir la información y toma de decisiones entre los distintos módulos o cómo contribuir, mediante procesamiento y actuación local, al comportamiento global del sistema robótico; entre otras. Si bien otros investigadores han desarrollado estrategias de control para generar comportamientos simples (locomoción unidireccional, formación de geometrías simples, auto reparación), no existen en la literatura métodos que permitan la generación automática de dichas reglas. Para esto, se desarrolló un simulador acoplado a distintos métodos de aprendizaje evolutivo para la síntesis de algoritmos de locomoción para robots modulares reconfigurables genéricos. Los métodos de aprendizaje empleados fueron Algoritmos Genéticos y NEAT (Neuro Evolution of Augmenting Topologies). De esta forma, con algoritmos genéticos se desarrollaron reglas de locomoción explícitas (similares a las disponibles en la literatura), mientras que con NEAT se desarrolló una novedosa propuesta, donde las reglas de locomoción están contenidas implícitamente en redes neuronales. Finalmente, se estudió el proceso de obtención de los algoritmos de locomoción y, posteriormente, se caracterizaron las distintas soluciones obtenidas ante la variación de distintos parámetros y escenarios de ensayo. El error asociado al aprendizaje con NEAT fue de 1.93%, mientras que con Algoritmos Genéticos se tuvo un error de 17.87%, de donde se tiene que el entrenamiento con NEAT es más repetible que con Algoritmos Genéticos. Sin embargo, los resultados finales obtenidos con Algoritmos Genéticos superaron a los obtenidos con NEAT en un 17.88%. Para mejorar el proceso de entrenamiento fue necesario acondicionar el simulador de forma tal que cada algoritmo de locomoción obtuviese siempre el mismo resultado, reduciendo la aleatoridad.
3

Aprendizaje Reforzado Orientado a la Toma de Decisiones en el Fútbol Robótico

Recabal Guiraldes, Pablo January 2009 (has links)
En el contexto del futbol robótico la toma de decisiones es un problema interesante y complejo de resolver. El objetivo del presente trabajo es desarrollar un algoritmo que permita al robot tomar la decisión de qué hacer cuando está en posesión de la pelota, de modo de mejorar los resultados finales de cada partido. Para esto, se propone un algoritmo de aprendizaje reforzado, el cual mediante la experimentación del mundo, representado por estados, ajuste los parámetros del sistema de modo de maximizar cierta entrada o recompensa. El problema se modela con un espacio de estados reducido de modo de conseguir una generalización más amplia. Se implementa un algoritmo basado en Q-Learning y otro basado en SARSA, acercamientos levemente distintos de aprendizaje reforzado. Los experimentos consisten en partidos de diez minutos con cuatro jugadores por lado en donde uno de los dos equipos juega utilizando el algoritmo propuesto y el otro utiliza una estrategia estándar. Tanto para Q-Learning como para SARSA se alternan períodos en los que se juega utilizando el algoritmo “puro”, con otros en donde se eligen algunas acciones al azar. Analizando la diferencia de goles correspondiente a cada período y a cada algoritmo, se puede observar en ambos casos una leve tendencia creciente en la diferencia de goles, sin embargo, esta no es categórica debido a la alta dispersión de los datos. Además, es posible observar como SARSA presenta mejores resultados si se considera los resultados globales, mientras que Q-Learning presenta una tendencia creciente más pronunciada para las pruebas que involucran al algoritmo puro. Los objetivos no se satisfacen completamente, pues después de más de 90 horas de entrenamiento ninguno de los dos algoritmos es capaz de superar a la estrategia estándar.
4

Text mining aplicado a documentación de API para la detección de directivas

Correa Gaete, Gabriel Andrés Josué January 2015 (has links)
Ingeniero Civil en Computación / En esta memoria de Título se estudia la factibilidad de detectar directivas de API usando herramientas de Machine Learning y Text Mining. Las directivas son instrucciones importantes sobre el correcto uso de una API junto con restricciones y precauciones para prevenir errores. Sin embargo, existe la necesidad de destacar las directivas ya que pueden pasar desapercibidas para los desarrolladores de software. El objetivo general de este trabajo es diseñar e implementar un sistema de detección semi-automático de directivas de API. En este proyecto se realiza una búsqueda de los mejores algoritmos de Machine Learning para detectar las directivas de una API. Se realizaron una serie de experimentos de Text Mining para evaluar la precisión de algoritmos que intentan separar las frases de una documentación en directivas y en no-directivas. Previo a la realización de los experimentos, fue necesario reunir una colección de directivas y de no-directivas, requeridos para entrenar los programas de Machine Learning. Para facilitar la recopilación de estos datos, se implementó Comments Highlighter o CHi: una aplicación web que ayuda a buscar y destacar manualmente las directivas de una API. De este modo, se utilizó la herramienta implementada para reunir los datos precisados por los algoritmos de clasificación y posteriormente se realizaron pruebas para medir el rendimiento de la detección automática de directivas. Luego, la habilidad de detectar las directivas es agregada a la aplicación, y como la detección no es perfecta, los errores pueden ser corregidos manualmente usando CHi. Es por esto que el sistema es denominado como una solución semi-automática. Los resultados demuestran que es factible detectar directivas usando clasificadores de Machine Learning. Además, se hacen pruebas variando el tamaño de los datos usados para entrenar los clasificadores, obteniendo información sobre cuántas muestras es necesario reunir para lograr un porcentaje satisfactorio de directivas detectadas. Finalmente se observa que hay dos algoritmos que funcionan significativamente mejor que los otros y uno de ellos es agregado a las funcionalidades de CHi.
5

Estudiando obras literarias con herramientas de procesamiento de lenguaje natural

Gouron, Romain Víctor Olivier January 2017 (has links)
Ingeniero Civil Matemático / En los últimos años, el procesamiento de lenguaje natural (Natural Language Proces-sing, o NLP) ha experimentado importantes avances. Específicamente, en 2013, Google lanzó "word2vec", un algoritmo que propone, a partir de un corpus dado, una representación vecto-rial de las palabras que lo componen. Dicho algoritmo ha tenido un gran éxito principalmentepor dos razones: La primera es el bajo costo computacional de su entrenamiento que permitióun uso masivo, mientras que la segunda es la intuitiva topología inducida por la representación vectorial ilustrada por el popular ejemplo: word2vec("king") - word2vec("man") + word2vec("woman") = word2vec("queen") En esta memoria, presentamos en un primer lugar un ejemplo ilustrativo del algoritmo "word2vec" mediante su implementación para determinar preguntas duplicadas en Quora, una competencia propuesta por el sitio Kaggle.com. Una vez familiarizados con el algoritmo, nos enfocamos en un problema más abierto que considera el análisis de 45 obras de literatura francesa. En particular, queremos atacar la siguiente pregunta: ¿cómo se puede definir una distancia entre dos libros? Después de haber preparado los libros con el propósito de poder usar el algoritmo, propondremos varios métodos originales para comparar pares de libros. Luego, nos interesará representar estas obras en un espacio, y determinar si dicha representación revela propiedades literarias de las obras consideradas tales como la paternidad o el estilo literario.
6

Sistema de gestión y clasificación automática de denuncias ambientales mediante aprendizaje de máquina / Management and automatic classification of environmental complaints system using machine learning

Concepción Tiza, Miguel Angel 04 January 2021 (has links)
Desde las últimas décadas, el impacto negativo que generan las actividades humanas ha incrementado la importancia de la protección del medio ambiente año tras año tanto en el mundo como en el Perú. Por esta razón, los gobiernos a nivel mundial implementan mecanismos de protección ambiental tales como las denuncias ambientales. Estas permiten a la población informar sobre una posible contaminación ambiental a las autoridades competentes con el fin de que tomen las acciones necesarias, para esto, es necesario que las denuncias sean formuladas, clasificadas y derivadas de forma correcta y oportuna. Sin embargo, para realizar esas tareas de forma correcta se requiere de un amplio conocimiento técnico y legal que pocas personas poseen, esto lleva a que las denuncias ambientales no puedan ser atendidas de forma rápida y eficiente generando malestar en la población afectada. Frente a esta problemática, se propone una solución informática que gestione de forma automática la clasificación y derivación de denuncias ambientales mediante el uso del aprendizaje de máquina. Considerando que la mayoría de las denuncias ambientales consisten en textos se aplica técnicas de procesamiento de lenguaje natural que mediante algoritmos de clasificación de múltiples etiquetas se pueda clasificar automáticamente las denuncias ambientales lo que mejorará los tiempos de atención. / Since the last decades, the negative impact generated by human activities has increased the importance of protecting the environment year after year both in the world and in Peru. For this reason, governments worldwide implement mechanisms for environmental protection such as environmental complaints. These allow the population to report possible environmental contamination to the competent authorities for them to take the necessary actions, for this, it is necessary that the complaints be formulated, classified, and derived in a correct and timely manner. However, to perform these tasks correctly requires extensive technical and legal knowledge that few people possess, this means that environmental complaints cannot be dealt with quickly and efficiently, generating discomfort in the affected population. Faced with this problem, a computer solution is proposed that automatically manages the classification and derivation of environmental complaints using machine learning. Considering that most environmental complaints consists of texts, natural language processing techniques are applied that, using multi-label classification algorithms, environmental complaints can be automatically classified, which will improve service times. / Tesis

Page generated in 0.0512 seconds