• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 72
  • 13
  • Tagged with
  • 85
  • 85
  • 18
  • 18
  • 17
  • 16
  • 16
  • 16
  • 16
  • 16
  • 13
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Carga autónoma y su inserción en un modelo integral de operación subterránea para máquinas LHD

Tampier Cotoras, Carlos Andrés January 2018 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / 31/10/2020
52

Aplicaciones de algoritmos de aprendizaje reforzado profundo: una revisión sistemática de la literatura

Benel Ramirez, Sara Maria January 2022 (has links)
El objetivo de este estudio es realizar un análisis sistemático de las aplicaciones que se da a los algoritmos de aprendizaje reforzado profundo para identificar cuales están siendo utilizados actualmente y para qué. Con el fin de alcanzar este propósito, se ha realizado una revisión sistemática de los artículos de investigación que resultaron de la búsqueda, y el filtrado, en las bases de datos ScienceDirect, IEEE Xplore y ProQuest. Inicialmente se obtuvieron 926 artículos de los cuales solo 8 pasaron todos los filtros establecidos. Después de su lectura se logró identificar cinco algoritmos los cuales fueron empleados en los sectores de redes, planeamiento de rutas, programación de trabajos y administración de carga. Finalmente, en esta revisión, estos algoritmos demuestran ser de mucha utilidad y tener la capacidad de brindar solución a diversos problemas; y por esta razón se espera que se sigan investigando formas de aplicar estos algoritmos.
53

Self-optimizing skeleton execution using events

Pabón Sánchez, Gustavo Adolfo January 2015 (has links)
Magíster en Ciencias, Mención Computación / Esta tesis propone una forma novedosa para introducir características autonómicas de auto-configuración y auto-optimización a Patrones de Paralelismo (o Algorithmic Skeletons en inglés) usando técnicas de la Programación Dirigida por Eventos (o EDP por sus siglas en inglés). Gracias al uso de la programación dirigida por eventos, la solución propuesta en esta tesis presenta las siguientes contribuciones a las soluciones actuales: - No está relacionada a una arquitectura de aplicaciones en particular, por ejemplo la arquitectura de componentes. De esta forma, presenta una solución con un mayor alcance y es independiente de la arquitectura usada para la implementación de los patrones de paralelismo. - Provee un mayor nivel de adaptabilidad por permitir la introducción de cambios estructurales en tiempo de ejecución. A diferencia de otras soluciones que solo permiten la introducción de este tipo de cambios durante la compilación. - Los estimados de trabajo futuro pueden ser calculados en tiempo de ejecución y no hay dependencia a estimados pre-calculados en ejecuciones anteriores. Las características autonómicas presentadas en esta tesis se enfocan principalmente en garantizar un tiempo de ejecución a un patron de paralelismo por medio de la optimización de la cantidad de hilos de ejecución usados. Las calidades de servicio (QoS por sus siglas en inglés) usadas para este fin son: (1) tiempo de ejecución percibido por el usuario y (2) nivel de paralelismo. Otras contribuciones de esta tesis son: - Diseño e implementación de una novedosa solución a la separación de asuntos en los patrones de paralelismo usando técnicas de la programación dirigida por eventos. Esta solución novedosa permite la introducción de asuntos no-funcionales a los patrones de paralelismo sin disminuir sus abstracciones de alto nivel. - Evaluación de diferentes estrategias de estimación de trabajo futuro con el fin de realizar recomendaciones relacionadas a responder a la pregunta ¿Qué estrategia produce mejores estimados bajo qué circunstancias?
54

Evaluación automática de calidad de impresión 3D

Sandoval Suazo, Paulo José January 2018 (has links)
Ingeniero Civil en Computación / Bajo el contexto del concurso Beauchef Proyecta dentro de la Facultad de Cientas Físicas y Matemáticas de la Universidad de Chile se diseña una Impresora 3D que imprime concreto, este proyecto debe tener una validación respecto a la salida de la impresora, tomando en cuenta que la construcción de la impresora se realizará iterativamente tener un feedback preciso y eficaz ayuda a mejorar la manufactura de este dispositivo. Para comenzar se realizó una evaluación respecto al estado del arte de las técnicas para describir y comparar volúmenes en modelos 3D y se llegó a la conclusión que la voxelización fue la ruta a seguir para la evaluación de la impresora utilizando comparación volumétrica. Luego de haber fijado la voxelización como la manera de comparar volúmenes se procedió a diseñar un algoritmo que preprocese los modelos para normalizar las estructuras a comparar. Se utiliza la librería PCL para la implementación. Se realizó experimentación para determinar si las hipótesis y los criterios determinados para el funcionamiento del algoritmo funcionan correctamente bajo un experimento sintético utilizando modelos de un \textit{benchmark} y se determinó que no cumple con los estándares para la verificación de calidad de una impresora. Luego de esto se realizó un segundo experimento con hipótesis refinadas para considerar la alineación de los modelos utilizando los mismos modelos que el experimento anterior. Se llegó a resultados exitosos bajo el segundo experimento, lo que logró determinar una métrica bajo el algoritmo para la evaluación de modelos 3D y sus respectivas impressiones utilizando alguna impresora y un dispositivo de adquisición de datos 3D. Esta métrica se determinó respecto a las medidas de los objetos a comparar. La impresora 3D de concreto al momento de la redacción de este documento está en construcción.
55

An evaluation and comparison of long term simultaneous localization and mapping algorithms

Conte Marza, Fabián Alejandro January 2018 (has links)
Ingeniero Civil Eléctrico / Este trabajo consiste en la generación de un set de datos con un respectivo ground truth (medición más confiable) y el uso de los algoritmos ORB-SLAM (Orientated FAST and Rotated BRIEF (Binary Robust Independent Elementary Features) Simultaneous Location And Mapping) y LOAM (Lidar Odometry And Mapping) a modo de entender de mejor forma el problema de SLAM (localización y mapeo simultaneo) y comparar los resultados obtenidos con el ground truth. A modo de entender de mejor forma el set de datos generado, la funcionalidad de los diferentes sensores es explicada. Los sensores utilizados para generar los datos son LIDAR, cámara estéreo y GPS. Este trabajo posee dos mayores etapas, en primer lugar, el GPS es estudiado para establecer las diferentes formas de extraer los datos desde el dispositivo. Una forma es generar un nodo de ROS que mediante comunicación de Bluetooth otorga un mensaje que puede ser leído. Otra forma es presionar tres veces el botón de encendido del GPS, lo que inicia el almacenamiento de los datos en la tarjeta SD. Mientras el primer método entrega mayor cantidad de información, es menos confiable, existiendo la posibilidad de guardar mensajes vacios o perdida de ciertos datos, afectando la tasa de muestreo. Finalmente una combinación de ambos métodos es implementada. Un set de datos de prueba es generado cerca de la Universidad De Chile, para probar que los datos están siendo almacenados correctamente. En el test se concluye que a modo de obtener mejor resultado con el GPS es necesario tomar los datos en zonas con baja cantidad de edificios. Finalmente con los datos y el ground truth el Error Absoluto de la Trayectoria (ATE) es calculado como método de comparación de ambas trayectorias generadas con los algoritmos mencionados. El ATE s la cantidad de energía necesaria para transformar la trayectoria estimada en el ground truth. Dadas ciertas limitaciones en la extracción de los datos estimados, la comparación se realizo entre dos set de datos de prueba, con pequeña cantidad de loops en el camino recorrido. En esta situación los resultados dados por LOAM son mejores que los obtenidos con ORB.SLAM. Pero en un ambiente con mayor cantidad de loops y una trayectoria más larga ORB-SLAM entregaría mejores resultados. ABSTRACT This work consists of the generation of a data-set with ground truth and the use of ORB-SLAM (Orientated FAST and Rotated BRIEF (Binary Robust Independent Elementary Features) Simultaneous Location And Mapping) and LOAM (Lidar Odometry And Mapping) algorithms as a way to better understand SLAM and to compare the ground truth and the data-set generated. To fully understand the data-set generated, the functionality of the different sensors is explained. The sensors used to generate the data-set are LIDAR, Stereo Camera and a GPS. This work is divided into two stages, in the first place the GPS is studied to establish the different ways to extract the data from it. One way is to generate a ROS node that through Bluetooth communication generates a message which is published. The other way is to press three times the button of the GPS to store the data in the GPS micro SD memory. While the first method is capable of store more data per second, it is less reliable, existing the possibility of store an empty message or simply the loss of data in the process. In the end, a combination of the two methods is implemented, modifying the bag file with the data stored in the micro SD. A test-data is generated near the University Of Chile, to prove that the bag file (a type of file that can contain any kind of information such as images, video or text, between others) is correctly generated. In these tests, it was concluded that to obtain better performance of the GPS therefore, obtain a better ground truth, it was necessary to generate the data in a zone with a low quantity of high buildings. Finally with the data-set and the ground truth the Absolute Trajectory Error (ATE) is used as a method to compare the trajectories. The ATE is the amount of energy that would require to transform the estimated trajectory on the ground truth. Since certain limitations of the extraction of the estimated path, the comparison was made between two small data-set which counted with low quantity of closed loops. Therefore the LOAM algorithm shows better results in this trajectory. The ORB-SLAM algorithm shows better results in data-sets with a high quantity of loops in the path.
56

Sistema informático utilizando el algoritmo de priorización de variables basado en matrices para apoyar la atención de servicio de los procesos de soporte técnico en la empresa oficina digital SAC

Berrios Yovera, Elky Cesar, Ulfe Serquen, Marco Antonio January 2018 (has links)
Las peticiones de servicio por soporte técnico o incidencias de TI, han sido diseñadas para ayudar a toda organización a obtener una mayor productividad y reducir los costos operativos, por ende, sus procesos informáticos deben ser siempre constantes y corregidos en el menor tiempo posible. Oficina Digital SAC, empresa dedicada a brindar soporte en los procesos de TI a empresas en las zonas norte y nor-oriente, observamos deficiencia de un 40% de las 240 incidencias atendidas como mínimo al mes, con retrasos de aproximadamente 6 horas por atención aproximadamente, no encontrándose estandarizado las peticiones de incidencias por soporte técnico, realizándose mediante correo electrónico, telefonía fija o móvil, etc. Lo que genera pérdida en horas hombre y aumentan los costos operativos. Se desarrolló un sistema informático utilizando el algoritmo de priorización de variables basado en matrices logrando así mejorar la atención de servicio de los procesos por soporte técnico , se priorizó el registro de incidencias , en especial los de mayor importancia, disminuyó los tiempos de atención de las incidencias para cada una de las empresas cliente, se logró reducir costos operativos por cada atención , se incrementó el número de atenciones de servicio por cada personal de soporte y aumentó los niveles de satisfacción de nuestros clientes. Para el desarrollo del sistema informático se ha utilizado la metodología UWE, modelado UML, sistema operativo Android y la interacción con el sistema se realiza vía dispositivo móvil y/o web. Las técnicas utilizadas para recolección de datos son: observación, encuesta y entrevista. / Tesis
57

Minimización del Costo del Proyecto de Media Tensión, Asociado a la Interconexión de Aerogeneradores en un Parque Eólico

Galaz Castillo, Víctor Andrés January 2011 (has links)
La presente memoria tiene como objetivo desarrollar un algoritmo y una herramienta computacional para la minimización del costo del proyecto de media tensión, asociado a la interconexión de aerogeneradores en un parque eólico, las que habitualmente se realizan por medio de cables subterráneos. Estos últimos elementos son sometidos a diversas solicitaciones técnicas, siendo las principales las de carácter térmico y eléctrico. La herramienta computacional deberá entregar además un presupuesto para la evaluación en la etapa de pre-factibilidad del proyecto. El problema de búsqueda de las conexiones que minimizan los costos del proyecto de media tensión tiene una complejidad de tiempo exponencial, es decir, no es posible de resolver de manera determinística en un tiempo prudente, por lo cual se propone la aplicación de técnicas de agrupamiento y algoritmos genéticos en la resolución del problema de las interconexiones. En particular, los algoritmos genéticos entregan una solución cercana al óptimo, y se espera que sea suficiente para la etapa de evaluación del proyecto. La ejecución del algoritmo propuesto toma un tiempo razonable en entregar un resultado aceptable. Para el caso de un parque con 47 elementos toma 3,7 horas. Los resultados al aplicar el algoritmo propuesto muestran una diferencia menor al 5% con respecto a una topología que se determinó mediante un método manual, basado en la experiencia de un diseñador. Además el algoritmo permite comparar topologías propuestas por el usuario con el fin de analizarlas bajo las mismas condiciones técnicas y económicas, y así descartar de manera inmediata las que presenten mayores costos. Los trabajos adicionales que a futuro se pueden realizar para complementar los resultados obtenidos son: incorporación de un módulo para el cálculo de conductores aéreos en reemplazo de los cables subterráneos, para aplicarse cuando sea necesario, e implementación de otras técnicas de computación evolutiva para mejorar los resultados y los tiempos de convergencia.
58

Random finite sets in visual Slam

Falchetti Pareja, Angelo January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / Este trabajo trata sobre el diseño e implementación de un sistema de Localización y Mapeo Simultáneo (SLAM) visual usando la teoría de Conjuntos Finitos Aleatorios (RFS), en el que un navegador (e.g. robot, auto, teléfono celular, etc.) utiliza una cámara de vídeo RGB-D para reconstruir la escena a su alrededor y al mismo tiempo descubrir su propia posición. Esta capacidad es relevante para las tecnologías del futuro, que deberán desplazarse sin ayuda externa. Se considera la inclusión de modelos realistas de medición y movimiento, incluyendo la intermitencia de las detecciones de objetos, la presencia de falsos positivos en las mediciones y el ruido en la imagen. Para ello se analizan sistemas basados en la teoría RFS, que es capaz de incluir estos efectos de manera fundamentada, a diferencia de otras alternativas del estado del arte que se basan en heurísticas poco realistas como el conocimiento absoluto de las asociaciones de datos entre mediciones y puntos en el mapa. Se incluye una amplia revisión de la literatura, desde Structure from Motion a Odometría Visual, a los distintos algoritmos para SLAM. Luego, se procede a explicar los detalles de implementación de un sistema flexible para el análisis de algoritmos de SLAM, así como la implementación particular del algoritmo Rao-Blackwellized (RB)-Probability Hypothesis Density (PHD)-SLAM. Se presentan análisis del desempeño de este algoritmo al cambiar las distintas estadísticas que pueden variar en su uso práctico. Se hace una comparación detallada con la alternativa Incremental Smoothing and Mapping (iSAM2), usualmente usada en otros sistemas del estado del arte. Luego, basado en la teoría de Modelos Gráficos Probabilísticos (PGM) que está detrás de iSAM2, se propone un nuevo algoritmo, Loopy PHD-SLAM, capaz de propagar información a lo largo del grafo inducido de manera eficiente, incluyendo las estadísticas de RFS. Con una implementación sencilla como prueba de concepto, se observa la capacidad de este nuevo método de cerrar ciclos y converger a soluciones correctas. / Este trabajo ha sido auspiciado por Conicyt
59

Adaptación de Algoritmos para Indexamiento de Espacios Multimétricos

Kreft Carreño, Sebastián Andrés January 2009 (has links)
Una de las operaciones más importantes en datos multimedia es la de buscar objetos similares entre sí. Para realizar esta búsqueda, es que se recurre al concepto de espacio métrico, el cual permite modelar la relación de similitud por medio de una función de distancia, que cumple la desigualdad triangular, entre otras propiedades. Esta distancia, resulta, generalmente, costosa de calcular, por lo que es necesario la construcción de índices para resolver las búsquedas de manera eficiente. El tema de la eficacia es también un aspecto muy importante, cuando se trabaja con búsquedas por similitud, ya que no solamente es necesario poder responder las consultas rápidamente, sino que también es necesario entregar resultados relevantes. Para mejorar este aspecto, es que se utiliza un espacio multimétrico, el que define dinámicamente la distancia a utilizar, ponderando en mayor medida aquellas características que sean más relevantes para la consulta. El problema de esta estrategia es que existen pocos índices que permitan trabajar con espacios multimétricos y los índices de espacios métricos no pueden ser usados directamente, pues la distancia de éstos es fija. Es por esta razón que en esta memoria se busca contribuir con nuevas técnicas de indexamiento para espacios multimétricos. Para esto se estudia y propone una metodología que permite adaptar índices métricos para ser utilizados en un contexto de espacios multimétricos. Se muestra también cómo esta técnica puede ser utilizada para modificar las estructuras List of Clusters y GNAT, así como también el hecho que las estructuras previamente existentes también resultan de utilizar la metodología propuesta. Finalmente se realiza una evaluación experimental, comparando los índices propuestos con los ya existentes, obteniendo que unos de los índices propuestos, MMGNAT, muestra un mejor desempeño que el estado del arte.
60

Implementacion de un algoritmo de monitoreo de salud estructural basado en objetos simbolicos y clasificación por agrupamiento

Lagos Flores, Gustavo Patricio January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Ingeniería Sísmica / El presente trabajo de Tesis muestra la implementación y análisis de variados métodos de aprendizaje de máquinas y minería de datos, desde la fase de extracción de características sensibles usando objetos simbólicos y clasificación mediante algoritmos de agrupamiento, para el estudio y monitoreo de la condición estructural de obras civiles, con énfasis en la detección temprana de la ocurrencia de daños estructurales. El monitoreo de salud estructural mediante algoritmos de minería de datos, reconocimiento de patrones y aprendizaje de máquinas es un campo moderno y activo en la Ingeniería Civil. El flujo general es que a partir de mediciones de aceleración en sitio y utilizando metodologías de identificación de sistemas, se extrae la información modal que representa algún modelo clásico de la dinámica estructural. En este trabajo se busca extender el tipo de información que se puede extraer desde las series de aceleración, estudiando el uso de las series de aceleración en bruto y a su vez mediante la extracción de características sensibles usando ajustes de modelos autoregresivos. La metodología global que se utiliza está basada en el agrupamiento de objetos simbólicos que representan el comportamiento estadístico de características sensibles, y se implementa tanto en series de aceleración obtenidas en laboratorio como en un edificio en operación instrumentado. En el segundo capítulo se estudian las series de aceleración en bruto como entrada para la transformación a objetos simbólicos con uso de histogramas e intervalos intercuartiles, concluyéndose que la energía de entrada es altamente determinante en los grupos obtenidos por los algoritmos de clasificación. Aún así, se puede extraer información del estado estructural si se analizan series de aceleración obtenidas desde un misma condición operacional y ambiental. En el tercer capítulo se estudia la extracción de otro tipo de característica basada en modelos autoregresivos, con las que se generan series de coeficientes de modelos AR(p) ajustados a las series de aceleración originales, encontrándose que los parámetros AR son mucho más sensibles a los cambios estructurales que la aceleración y que dicha sensibilidad puede aumentarse sin pérdida de robustez si se consideran líneas base de referencia. En el cuarto capítulo se analiza el uso de las series de coeficientes AR como entrada para la condensación a objetos simbólicos con los que realizar el agrupamiento, consiguiendo una mejora considerable en la separación de con respecto al uso de las series de aceleración en bruto.

Page generated in 0.0986 seconds