• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 4
  • Tagged with
  • 24
  • 24
  • 22
  • 22
  • 22
  • 22
  • 22
  • 16
  • 9
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Desarrollo de un modelo algorítmico basado en árboles de decisión para la predicción de la permanencia de un paciente en un proceso psicoterapéutico

Leon Atiquipa, Heli Eliaquin 11 April 2018 (has links)
En la actualidad existe una creciente necesidad de atención psicológica en nuestro país, por lo que existen muchas instituciones públicas y privadas que ofrecen esto servicios profesionales. La psicoterapia es parte de estos servicios y quienes lo brindan son profesionales especializados en la materia, los cuales atienden a pacientes de diferentes edades y estratos socioeconómicos. Estos tratamientos suelen durar mucho tiempo, por lo que muchos pacientes, por diferentes circunstancias, abandonan el proceso al poco tiempo de haberlo iniciado. La institución, el cual es el caso de estudio, maneja ciertos niveles de deserción medibles durante el tiempo. Estos niveles son manejables en el grado en el que se dan, sin embargo, un creciente aumento del mismo podría generar costos para mantener el equilibrio, el cual deberá ser aplicado a los pacientes, los cuales podrían sentir incomodidad y afectar el proceso terapéutico. La necesidad de tener un mayor control sobre los niveles de deserción y reducirlos ayudaría en gran medida a mejorar la calidad de los servicios que se brindan en la institución. Para la institución, la incertidumbre del abandono en el proceso no permite aplicar medidas correctivas que permitan mejorar los niveles de deserción, sin embargo, la información contenida en la base de datos institucional permite, por cuestiones de investigación, estudiar y analizar los patrones que conllevan al abandono del proceso. Realizar este tipo de análisis sobre una gran cantidad de información implica utilizar métodos computacionales que permitan ayudar a analizar la información de una forma rápida y eficiente. Es por ello, que surge la necesidad de apoyarnos en las ciencias de la computación, específicamente en la minería de datos, para identificar los patrones que permitan predecir y determinar la permanencia de los pacientes durante el proceso. El presente proyecto de fin de carrera pretende entender las causales de la deserción en un proceso psicoterapéutico con el fin de poder predecir, desde el primer contacto entre el paciente y la institución, la permanencia del paciente. Para esto, se plantea el desarrollo de un prototipo funcional que permita predecir la permanencia de los pacientes haciendo uso de algoritmos de árboles de decisión para la predicción. Para la elaboración del prototipo funcional y el cumplimiento de los objetivos, se hizo uso de la herramienta Weka, el cual permitió analizar y seleccionar el algoritmo a usar para la implementación del prototipo. El desbalanceo de clases dificulto el proceso de análisis algorítmico, por tal motivo, se aplicaron métodos de minería de datos para analizar los conjuntos de datos desbalanceados. El lenguaje de programación usado fue Java y los algoritmos que permitieron la predicción fueron incorporados desde las librerías del API de Weka. Los resultados obtenidos fueron satisfactorios, en base a los datos que fueron extraídos de la base de datos institucional. / Tesis
2

Modelo algorítmico para la clasificación de una hoja de planta en base a sus características de forma y textura

Malca Bulnes, Susana Milagros 05 June 2015 (has links)
A lo largo de los años, las plantas han sido consideradas parte vital e indispensable del ecosistema, ya que están presentes en todos los lugares donde vivimos y también donde no lo hacemos. Su estudio es realizado por la ciencia de la botánica, la cual se encargar del estudio de la diversidad y estructura de las mismas. La disminución y extinción de la variedad de las plantas es un tema serio, por lo cual ante el descubrimiento de nuevas especies, se propone una rápida identificación y clasificación a fin de poder monitorearlas, protegerlas y usarlas en el futuro. El problema de la clasificación de hojas es una tarea que siempre ha estado presente en la labor diaria de los botánicos, debido al gran volumen de familias y clases que existen en el ecosistema y a las nuevas especies que van apareciendo. En las últimas décadas, se han desarrollado disciplinas que necesitan de esta tarea. Por ejemplo, en la realización de estudios de impacto ambiental y en el establecimiento de niveles de biodiversidad, es de gran importancia el inventariado de las especies encontradas. Por este motivo, el presente proyecto de fin de carrera pretende obtener un modelo algorítmico mediante la comparación de cuatro modelos de clasificación de Minería de Datos, J48 Árbol de Decisión, Red Neuronal, K-Vecino más cercano y Naive Bayes o Red Bayesiana, los cuales fueron adaptados y evaluados para obtener valores de precisión. Estos valores son necesarios para realizar la comparación de los modelos mediante el método de Área bajo la curva ROC (AUC), resultando la Red Bayesiana como el modelo más apto para solucionar el problema de la Clasificación de Hojas. / Tesis
3

Design of a DVB-S2 compliant LDPC decoder for FPGA

Montaño Gamarra, Guillermo Daniel 15 July 2021 (has links)
Low Density Parity Check codes presents itself as the dominant FEC code in terms of performance, having the nearest performance to the Shannon limit and proving its usefulness in the increasing range of applications and standards that already used it. Low power devices are not except of this rapid development, where it emerges the necessity of decoders of low power without totally sacrificing performance or resource usage. The present work details research for a LDPC decoder compliant with the DVB-S2 standard for digital television, motivated for its already established use in uplink and downlink satellite applications and its great performance at large code lengths. Specifically, this research presents the study of the min-sum algorithm and the elements that conform the core decoder, including both functional units (variable and check nodes), memory blocks and routing network. In the context of DVB-S2, it is focused in the inner LDPC decoder and targets FPGA as platform . Furthermore, a variety of design strategies are considered as part of the scope of this work, including the optimal selection of the architecture and the schedule policy, the basis of the design characteristics of the control unit as a Algorithmic State Machine and the introduction of specialized modules to reduce the number of clock cycles per decoding process, such as early stopping. Under these constrains, it has been selected a set of features for a core design derived from work, such as code length of 64800 bits and code rate equal to 1/2. The proposed architecture is partially parallel with flooding schedule and operation over binary symbols (Galois field GF(2)). It takes the assumption of a channel with AWGN and BPSK modulation, so the demodulator feeds soft decision information of each symbol based on both assumptions. / Trabajo de investigación
4

Overlapping point cloud merge and surface reconstruction with parallel processing for real time application

Pérez Ramírez, Pierre Ramiro 26 May 2023 (has links)
Compañías mineras están en búsqueda constante de nuevas tecnologías para aumentar su productividad. Una de las tecnologías que les permite realizar la reconstrucción de la superficie sin poner en riesgo la vida de sus trabajadores es el uso de sensores LiDAR junto con plataformas móviles que les permiten rotar el sensor para realizar un escaneo completo de la estructura. Sin embargo, el procesamiento de los datos se realiza a través de ordenadores situados fuera de la mina, debido a su alto coste computacional, lo que se traduce en un alto coste de tiempo. En esta tesis presento como objetivo principal el diseño de un algoritmo paralelo para la fusión de nubes de puntos capturadas por un LiDAR y la reconstrucción de la superficie en tiempo real, con el fin de reducir el tiempo de procesado, teniendo en cuenta información a priori del patrón de barrido de los puntos. En la literatura se pueden encontrar algoritmos para la reducción de la densidad de puntos, sin embargo, en esta tesis, propongo la idea de suprimir estos puntos basándome en el principio de que la etapa de registro entre cada escaneo puede ser obtenida por un sistema de medición correctamente establecido, por lo tanto, no es necesario utilizar ningún algoritmo ICP. Además, a diferencia de los algoritmos genéricos de reconstrucción de superficies, propongo un nuevo algoritmo que utiliza la información a priori del sistema de escaneo que permite obtener la reconstrucción triangular en un tiempo menor al tiempo de escaneo del LiDAR. Este algoritmo se implementará en un ordenador desktop con el uso de GPUs proporcionadas por NVIDIA para evaluar su rendimiento y, también, se implementará en una Jetson Nano con datos de una mina socavón real. Finalmente, proporcionaré algunas recomendaciones y consideraciones a tener en cuenta en las etapas de evaluación del algoritmo secuencial, codificación del algoritmo paralelo e implementación en GPUs. / Mining companies are constantly searching for new technologies in order to increase their productivity. One of the technologies that allow them to perform surface reconstruction without risking the lives of their workers is the use of LiDAR sensors in conjunction with mobile platforms that allow them to rotate the sensor to perform a full scan of the structure. However, the data processing is done through computers located outside the mine, due to its high computational cost, resulting in a high cost of time. This thesis presents as principal objective the design of a parallel algorithm for the fusion of point clouds captured by a LiDAR and the surface reconstruction in real-time, in order to reduce the time processing, taking into account a priori information of the scanning pattern of the points. Algorithms for point density reduction can be found in the literature, however, in this thesis these points are suppressed based on the principle that the registration stage between each scan can be obtained by a measurement system properly stablished, therefore, it is not necessary to use any ICP algorithm. Also, unlike the generic surface reconstruction algorithms, a new algorithm that uses the a priori information of the scanning system is proposed and allows to obtain the triangular mesh in real-time in comparison to the LiDAR scanning time. This algorithm will be implemented in a desktop computer with the use of GPUs provided by NVIDIA to evaluate its performance and, also, will be implemented in a Jetson Nano with real data. Finally, some recommendations and considerations are provided to be taken into account in the stages of evaluation of the sequential algorithm, coding of the parallel algorithm and implementation on GPUs.
5

Aplicación de aprendizaje profundo para la detección y clasificación automática de insectos agrícolas en trampas pegantes

Córdova Pérez, Claudia Sofía 30 September 2021 (has links)
La horticultura es una actividad que da trabajo a muchos peruanos en distintas zonas del país, sin embargo, gran parte de la producción de hortalizas es dañada por la alta incidencia de plagas de insectos. En la actualidad, un método efectivo para realizar el control de estas plagas es el uso de trampas pegantes, las cuales atraen y atrapan distintos tipos de insectos. Convencionalmente, las trampas pegantes son colocadas de forma que queden distanciadas uniformemente en el campo donde se realiza el cultivo y luego de varios días se realizan observaciones visuales por parte del personal entrenado en reconocimiento de insectos. No obstante, la información recopilada manualmente por el humano puede no ser tan exacta, pues existen diversos factores que pueden influir en la precisión de esta, por ejemplo, la habilidad de cada persona para detectar distintos tipos de insectos y la posible fatiga que puede ser consecuencia de haber realizado un trabajo manual por mucho tiempo y para una muestra grande de insectos. Las soluciones que se encontraron en la revisión sistemática para tratar problemas de detección de insectos fueron algoritmos de segmentación con cambio de espacio de color, lo cual permite remover el fondo de una imagen y centrarse únicamente en el objeto de interés; también, se encontraron estudios que usaron modelos de detección, los cuales hacen uso de aprendizaje profundo con redes neuronales convolucionales para lograr la identificación de los insectos. Esta última técnica ha dado resultados óptimos en distintos problemas visión computacional, por lo que el presente proyecto de investigación propone usar los modelos de detección pre-entrenados Faster R-CNN y YOLOv4 y aplicarles aprendizaje por transferencia para ajustarlos al problema de detección de tres tipos de plagas de insectos: la mosca blanca, la mosca minadora y el pulgón verde del melocotonero en etapa de adulto alado. Para ello, se debe contar con un corpus de imágenes de trampas pegantes con insectos plaga y, debido a la limitada disponibilidad de estas, se planteó construir un generador de imágenes realistas de trampas pegantes con insectos, el cual tiene en consideración factores realistas como la iluminación y el nivel de ruido en las imágenes, además, se usaron técnicas de segmentación y aumento de imágenes de modo que el corpus obtenido sea el adecuado para la fase de entrenamiento. Finalmente, se midió la métrica mAP de ambos modelos para los tres tipos de insectos. El modelo Faster R-CNN obtuvo 94.06% y el modelo YOLOv4, 95.82%, donde se concluye que el desempeño de ambos detectores es aceptable.
6

Aplicación del algoritmo de búsqueda tabú para la optimización del espacio utilizado en el llenado de contenedores

León Málaga, Paul Andrés 07 November 2021 (has links)
Debido a la progresiva globalización del uso de los contenedores en el transporte marítimo internacional y a la creación de una extensa variedad de estos, se tuvo la necesidad de controlar y estandarizar sus características como el tamaño, carga máxima y métodos de identificación, con este fin se crearon los estándares ISO 668 e ISO 6346. A pesar de los beneficios del uso de los contenedores, las empresas comercializadoras han tenido problemas en optimizar el espacio utilizado dentro de estos debido principalmente a que el orden y distribución de los paquetes que son ingresados en los contenedores es inadecuado. Por lo tanto, plantear un orden de colocación óptimo de los paquetes dentro del contenedor se vuelve el principal problema para este proyecto de fin de carrera. Su solución permitirá transportar más paquetes reduciendo el espacio perdido en cada contenedor, lo que finalmente conlleva a una reducción de los costos de transporte por contenedor incurridos por la empresa. Para este proyecto de fin de carrera se propone aplicar el algoritmo de Búsqueda Tabú para optimizar el espacio utilizado en contenedores considerando restricciones de peso y fragilidad y compararlo con el algoritmo Genético. Como objetivos específicos se tienen los siguientes puntos: • Definir la función objetivo para ambos algoritmos. • Adaptar un algoritmo Genético que proporcione una posible solución. • Diseñar un algoritmo de Búsqueda Tabú que brinde una alternativa de solución. • Implementar prototipos funcionales para ambos algoritmos. • Realizar la experimentación numérica que permita determinar cuál es la solución más óptima.
7

Design of a DVB-S2 compliant LDPC decoder for FPGA

Montaño Gamarra, Guillermo Daniel 22 September 2021 (has links)
Low Density Parity Check codes presents itself as the dominant FEC code in terms of performance, having the nearest performance to the Shannon limit and proving its usefulness in the increasing range of applications and standards that already used it. Low power devices are not except of this rapid development, where it emerges the necessity of decoders of low power without totally sacrificing performance or resource usage. The present work details the devolopment of a LDPC decoder compliant with the DVB-S2 standard for digital television, motivated for its already established use in uplink and downlink satellite applications and its great performance at large code lengths. This research presents the study of the min-sum algorithm and the design of the elements that conform the core decoder, including both functional units (variable and check nodes), memory blocks and routing network. In the context of DVB-S2, it focused exclusively in the prototyping of the inner LDPC decoder and targets FPGA as platform. A variety of design strategies are applied in the design of the core, including the optimal selection of the architecture and the schedule policy, the design of the control unit as a Algorithmic State Machine (ASM) and the inclusion of specialized modules to reduce the number of clock cycles per decoding process, such as early stopping. The selected features for this work are code length of 64800 bits and code rate equal to 1/2. The selected architecture is partially parallel with flooding schedule and operates over binary symbols (Galois field GF(2)). For testing, it assumes a channel with AWGN and BPSK modulation, so the demodulator feeds soft decision information of each symbol based on both assumptions. The design has been validated using different verification methodologies according to complexity and predictability of each part or the whole system. Obtained results show the decoder, when configured for a maximum of 10 iterations, has a BER performance of 10-3 at a SNR of 2 dB, having an advantage of 1 dB respect to previous published Works [1]. It uses 60363 slice LUT and 23552 slice registers when synthesized in the Virtex 7 xc7vx550t FPGA from Xilinx, a reduction of 10% in resource usage from [1]. It achieves a maximum frequency operation of 194 Mhz and a throughput of 142.99 Mbps at worst case. The top energy per bit rate is 18.344 nJ/bit.
8

Sistema de detección y evasión de obstáculos por medio de un LIDAR 360° para un sistema aéreo no tripulado

Chávez Cobián, Alfredo Leonardo 16 October 2020 (has links)
Los sistemas aéreos no tripulados (SANT) se han convertido en una comodidad asequible para cualquier fin. Sin embargo, estos dispositivos pueden causar daño tanto a infraestructuras como a personas en caso de colisión. De esta manera, el problema radica en que no existe en el Grupo de Investigación de Sistemas Aéreos No Tripulados un módulo electrónico capaz de detectar y evadir obstáculos en escenarios tales como bordear una estructura fija o evitar una colisión inminente con algún objeto que se interponga entre el SANT y la meta. Además, que se pueda acoplar a diversas plataformas y que tenga un rango de detección de 360°. La solución al problema mencionado se llevó a cabo mediante el desarrollo de un sistema de detección y evasión de obstáculos. En cuanto al hardware, se eligió como sensor al Sweep LiDAR 360°, al Odroid C2 como computadora acompañante y al Pixhawk como controlador de vuelo. La plataforma elegida fue el cuadricóptero Tarot FY450. En cuanto al Software, se diseñó un algoritmo de adaptación de rutas basado en 4 modos de vuelo. El flujo de información da inicio con la adquisición de datos del entorno por parte del sensor LiDAR. Dicha información es ordenada del punto más cercano al más lejano y posteriormente es filtrada en base a la intensidad de señal. La información resultante es procesada en la computadora acompañante y un modo de vuelo es elegido en base a criterios previamente establecidos. En cuanto a las pruebas realizadas para comprobar la eficiencia del sistema, se realizaron simulaciones en Matlab y pruebas reales. En cuanto a las pruebas reales, se realizaron 3 con un biombo y una con una pancarta. El objetivo de las 3 primeras pruebas fue evaluar el dispositivo en un entorno controlado, mientras que la prueba con pancarta tuvo como objetivo evidenciar el modo de vuelo de emergencia (Avoid Obstacle). Además, el límite de velocidad resultante fue de 0.5 m/s.
9

Fast LiDAR data registration using GPUs

Huapaya Ávalos, Carlos Enrique 18 October 2023 (has links)
En los últimos años, la llegada de las cámaras de profundidad de bajo costo y sensores LiDAR ha incentivado a las industrias a invertir en estas tecnologías, lo cual incluye también mayor interés en investigaciones sobre procesamiento digital de señales. En esta ocasión, la reconstrucción tridimensional de túneles mineros utilizando LiDARs y un robot de auto-navegación ha sido propuesta como proyecto de investigación, y el presente trabajo forma parte en cargándose del alineamiento de nubes de puntos tridimensionales en tiempo real, un proceso que es más conocido como Registro de Nubes de Puntos. Existen muchos algoritmos que pueden resolver este problema, pero para el proyecto, el algoritmo solo necesita calcular la alineación fina y rígida. Al comparar los algoritmos de registro más avanzados, se encontró que el popular algoritmo ICP es el más adecuado para este caso debido a su alta robustez y eficiencia. Dentro de este algoritmo, se encuentran 3 pasos simples: relación, minimización y transformación, junto con una colección de variaciones de estos pasos que han sido desarrolladas a lo largo de las últimas décadas. Basándose en esto, en este trabajo se diseñó e implementó un algoritmo ICP paralelo en CPU y GPU. Además, las optimizaciones en recursos de memoria, ocupación de núcleos y el uso de la técnica de desenrollado de bucles para la implementación en GPU permiten que la implementación propuesta deI ICP alcance un rendimiento 95 veces más rápido que implementaciones de CPU altamente optimizadas. / In the last years, the advent of low-cost depth cameras and LiDAR sensors has encouraged industries to invest in these technologies, which includes research about digital signal processing. This time, 3D surfaces reconstructions of mining tunnels using LiDARs and a self-navigation robot have been proposed as a research project and this work is in charge of performing the alignment of data that come from the LiDARs in real-time, a process that is most known as 3D Point Cloud Registration. Many algorithms can solve this problem, but for the project, the algorithm only needs to compute for fine-rigid alignment. Comparing state-of-the-art registration algorithms, it is found that the popular ICP algorithm is the best suited for this case since its high robustness and efficiency. Inside this algorithm, there are 3 simple steps: matching, minimization, and transformation, and a diverse collection of variations of these steps that have been developed through the last decades. Based on this, a parallel ICP algorithm is designed and implemented in CPU and GPU. Moreover, optimizations in memory resources, cores occupancy, and the usage of the loop unrolling technique for the GPU implementation lead the proposed ICP implementation to reach a performance of 95 times faster than highly-optimized CPU implementations.
10

Aplicación de aprendizaje profundo para la detección y clasificación automática de insectos agrícolas en trampas pegantes: una revisión de literatura

Córdova Pérez, Claudia Sofía 02 February 2021 (has links)
El presente trabajo de investigación busca hacer una revisión sistemática sobre las técnicas actuales que se usan para solucionar problemas de identificación y clasificación de plagas de insectos, los cuales pueden ser para detectar uno o más tipos de insectos. Dentro de esta revisión, se encontró soluciones como algoritmos de segmentación con cambio de espacio de color, lo cual permite remover el fondo de una imagen y centrarse únicamente en el objeto de interés; también, el uso de modelos de detección, por ejemplo YOLO y Faster R-CNN, los cuales están conformados por redes neuronales convolucionales para lograr la identificación de insectos plaga; además, se encontraron soluciones que hacían uso de SLIC (Simple Linear Iterative Clustering), así como el uso de un análisis multifractal. Un aspecto relevante a tomar en cuenta para saber qué tan eficientes están siendo estas soluciones son las métricas de evaluación con sus respectivos valores obtenidos; sin embargo, estos resultados solo pueden ser comparables si se usa el mismo dataset para entrenamiento y validación. Por consiguiente y dado que la mayoría de estudios recopilados usa un conjunto de datos propio, los resultados mostrados nos sirven para tener una idea de la eficacia de sus soluciones, mas no para comparar los valores de las métricas de evaluación de los distintos aproximamientos tomados en cada estudio revisado. Finalmente, el único insecto plaga que afecta los campos de hortalizas en el Perú y fue encontrado dentro de los estudios fue la mosca blanca. Los demás estudios abordan el problema de detección con otros tipos de insectos, los cuales no son relevantes para el problema de plagas en Perú, sin embargo, sus soluciones son consideradas pues el cambio que se tendría que hacer es en el conjunto de datos que alimenta a las soluciones presentadas en los estudios encontrados.

Page generated in 0.0791 seconds