• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 21
  • Tagged with
  • 49
  • 49
  • 28
  • 28
  • 21
  • 20
  • 17
  • 15
  • 15
  • 15
  • 15
  • 15
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Predicción de deslizamientos aplicando técnicas de aprendizaje automático

Guerrero-Rodriguez, Byron 09 June 2023 (has links)
Los deslizamientos de tierra se encuentran entre los fenómenos naturales más destructivos, el peligro de estos ha quedado demostrado a lo largo del tiempo con numerosos sucesos que han causado daños con pérdida de vidas humanas y elevados costes materiales, siendo necesario proponer métodos que permitan una predicción y alerta tempranas. Se trata de un problema tradicionalmente abordado con métodos convencionales, de carácter determinista, con un número limitado de variables y un tratamiento estático de las mismas. El presente trabajo en su inicio propone el uso de los datos generados por estaciones meteorológicas para predecir los deslizamientos. Se da un tratamiento especial a la información de precipitación como factor más influyente y cuyos datos se acumulan en ventanas temporales (3, 5, 7, 10, 15, 20 y 30 días) buscando la persistencia de las condiciones meteorológicas. Se complementa esta información con un conjunto de datos compuesto por variables geológicas, geomorfológicas y climatológicas, se aplica un proceso de selección de características a las variables meteorológicas. Utilizamos la clasificación de características basada en filtros y los mapas auto-organizativos (Self-organizing maps - SOM) con Clustering como técnicas de aprendizaje automático supervisado y no supervisado, respectivamente. Esta contribución se verificó con éxito experimentando con diferentes modelos de clasificación, mejorando la precisión de la predicción en las pruebas, y obteniendo un 99,29\% para el Perceptrón Multicapa, un 96,80 % para el Bosque Aleatorio, y un 88,79 % para la Máquina de soporte vectorial. Se definen zonas de alto riesgo de desprendimiento mediante el aprendizaje automático, con la aplicación de los modelos se obtuvieron valores de probabilidad que pueden representarse como mapas multitemporales de susceptibilidad a los deslizamientos. La distribución de los valores en las diferentes clases de susceptibilidad se realiza mediante los métodos de intervalos semejantes, cuantiles y de Jenks, cuya comparación nos permitió seleccionar el mapa más adecuado para cada precipitación acumulada. De este modo, se identifican las zonas de máximo riesgo, así como los lugares concretos con mayor probabilidad de desprendimiento. Finalmente hemos creado un conjunto de datos de imágenes a partir de un inventario oficial de desprendimientos, que verificamos y actualizamos basándonos en información periodística y en la interpretación de imágenes de satélite de la zona de estudio. Las imágenes cubren las coronas de los deslizamientos y los valores reales de activación de los factores condicionantes a nivel de detalle (5x5 píxeles). Nuestro enfoque se centra en el lugar concreto donde se inicia el deslizamiento y sus proximidades, a diferencia de otros trabajos que consideran toda la zona de deslizamiento como el lugar de ocurrencia del fenómeno. Estas imágenes corresponden a variables geológicas, geomorfológicas, hidrológicas y antropológicas, que se apilan de forma similar a los canales de una imagen convencional para alimentar y entrenar una red neuronal convolucional. Así, mejoramos la calidad de los datos y la representación del fenómeno para obtener un modelo de predicción más robusto, fiable y preciso. Los resultados indican una precisión media del 97,48 %, lo que permite generar un mapa de susceptibilidad a deslizamientos en la carretera Aloag-Santo Domingo en Ecuador. Su uso práctico es una valiosa herramienta para la toma de decisiones en la gestión de riesgos, que puede ayudar a salvar vidas y reducir pérdidas económicas.
2

Monitoreo y aprendizaje de redes neuronales utilizando medidas de información y su aplicación en detección de eventos astronómicos transitorios

Reyes Jainaga, Ignacio Alfredo January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / Durante los últimos años, las redes neuronales profundas han mostrado excelentes resultados en múltiples tareas. Sin embargo, estos modelos son percibidos como "cajas negras", cuyos procesos internos no son comprendidos del todo. Dados los prometedores resultados alcanzados, estos modelos se proyectan como herramientas de gran utilidad en astronomía y otras áreas. Sin embargo, si se quieren utilizar para la toma automática de decisiones es necesario comprender mejor los principios fundamentales que rigen el comportamiento de las redes. En esta tesis se propone utilizar la teoría de la información para analizar el flujo de información en redes neuronales. Primero se analizan teóricamente algunas operaciones utilizadas en las redes neuronales, explicando los mecanismos mediante los cuales se destruye la información. Segundo, se monitorean las representaciones internas de los datos en la red durante el entrenamiento usando dos medidas de información. La primera medida utilizada es la "suficiencia", que corresponde a la información mutua entre la representación y las etiquetas, mientras que la segunda es una nueva medida propuesta llamada "robustez", que corresponde a la información mutua entre las etiquetas y la representación contaminada con ruido aditivo gaussiano. Tercero, se propone un algoritmo para aprender representaciones basado en la optimización de la robustez. Cuarto, se diseña un algoritmo capaz de entrenar redes neuronales completas, tanto redes MLP como redes neuronales convolucionales. Por otra parte se introduce Deep-HiTS, una red convolucional para detectar eventos astronómicos transitorios, la cual se entrena con datos semi-sintéticos construidos desde observaciones del High cadence Transient Survey (HiTS). Al comparar los resultados de Deep-HiTS con un modelo Random Forests y características diseñadas a mano, se observa que la red obtiene un error de clasificación de 0.53 % versus un 1.04 % del Random Forests. Usando las herramientas propuestas, se monitorea el flujo de información en las representaciones internas de Deep-HiTS. Además se entrena una red Deep-HiTS con arquitectura simplificada con el método propuesto basado en teoría de la información. Los experimentos verifican el cumplimiento de la desigualdad de procesamiento de información y el aumento de la suficiencia durante el aprendizaje. Los valores de suficiencia medidos sobre versiones reducidas de las representaciones reflejan la construcción jerárquica de características en las redes profundas. En el caso de Deep-HiTS, las propiedades medidas permiten cuantificar la dificultad del problema y muestran cómo fluye la información a través de la red. Los experimentos de aprendizaje muestran que los algoritmos propuestos permiten entrenar modelos efectivamente, aunque con un desempeño subóptimo. Varias mejoras posibles para el algoritmo de entrenamiento propuesto se describen en trabajo futuro. / Programa de formación de capital humano avanzado de CONICYT, a través de la Beca de Magíster Nacional 2016 número 22162464
3

Análisis de sentimiento en información de medios periodísticos y redes sociales mediante redes neuronales recurrentes

Zarate Calderon, Gabriel Helard 06 February 2022 (has links)
El análisis de sentimiento es un área de investigación importante en el procesamiento de lenguaje natural, la cual está en constante crecimiento especialmente por la generación de grandes volúmenes de información textual, y el avance tecnológico en lo que se refiere al almacenamiento y los algoritmos inteligentes para el análisis de esta. Esta tarea cada vez va tomando más fuerza su uso en diferentes aplicaciones computacionales dado el crecimiento exponencial del uso de medios digitales y redes sociales, las cuales, gracias a la información debidamente procesada, pueden ser muy valiosas para los negocios. Actualmente existen procedimientos ambiguos para la realización de dicha tarea y sobre todo para textos en español y de manera específica para notas periodísticas y publicaciones realizadas en redes sociales, todo ello por el hecho de la escasa cantidad de herramientas existentes para la presente tarea, por ende el proceso de clasificación de las polaridades de los sentimientos expresadas en los textos se realiza de manera manual por expertos en el tema, generándose así resultados ambiguos y sesgados según la experiencia del encargado, lo cual generaba resultados que no eran del todo fiables retándole valor a dicha tarea, además del hecho de que realizarlo de manera totalmente manual resultaba muy pesado y se realizaba en un periodo largo de tiempo. Para la realización de dicha tarea existen múltiples técnicas de aprendizaje de máquina y de aprendizaje profundo que son adecuadas para este, pero en el último año uno de los modelos que va siendo reconocido cada vez más para ser aplicado a resolver problemas de procesamiento de lenguaje natural son los modelos basados en transformers dadas sus buenas capacidades y los resultados que se obtienen con estos. Ante dicha problemática surge la necesidad de investigar más acerca de cómo se vienen implementando soluciones para la realización de análisis de sentimiento para hacer una comparativa sobre los modelos usados y además dadas las buenas capacidades de los modelos basados en transformers investigar más a fondo la utilidad de estos y las aplicaciones que tiene para así comprobar sus buenas capacidades.
4

Arquitectura para el control visual de ensamblajes en Industria 4.0 basado en aprendizaje profundo

Zamora Hernández, Mauricio Andrés 27 October 2020 (has links)
En Costa Rica, el tipo de empresa que sobresale en el mercado es el de las Micro, Pequeñas y Medianas Empresas (MiPyMEs). Para este tipo de empresas, la calidad y consistencia de los productos son elementos diferenciadores para competir en el mercado. Además, estás empresas tiene recursos económicos limitados para implementar tecnologías que le permitan incursionar en la cuarta revolución industrial. Aunque las MiP y MEs, y en concreto las del sector manufacturero, son consideradas uno de los motores económico del país, estás entidades no suelen tener ayudas del gobierno para desarrollarse digitalmente. Esto situación nos motivó a plantear un estudio para encontrar la manera en que se puede ayudar a las MiP y MEs a mejorar los procesos de manufactura. Debido principalmente a que en este tipo de negocios se basan en trabajos manuales, con personal poco cualificado; por lo que estos elementos afectan directamente la calidad de los productos desde su concepción. Se planteó un sistema de control de calidad visual que ayude a controlar la calidad durante la fase de producción, incentivando así el desarrollo de productos de calidad. Para este propósito se plantean soluciones basadas en técnicas de Visión por computadora (CV), junto con algoritmos de Machine Learning y arquitecturas de Deep Learning. Esta tesis doctoral se inició realizando una revisión del estado del arte sobre los procesos de interacción humano-robot (HRI), sistemas de control automático de calidad en los sistemas de producción, aplicación de la CV en entornos de manufactura, utilización de arquitecturas de Deep Learningy las bases de datos de imágenes de herramientas, piezas y componentesr equeridos para la manufactura. Así como bases de datos de vídeos de acciones. El resultado del estudio sirvió como base para el desarrollo del estado del arte y el conocimiento de las técnicas actuales de Deep Learning que permiten identificar objetos y acciones; particularmente para el control de la producción con operarios. Por lo que se logró evidenciar que no existían soluciones inteligentes basada en visión que permitan controlar secuencias de ensamble en la producción manual. Tras este estudio del estado del arte, se ha propuesto una arquitectura de visión por computador, reconocimiento de objetos y acciones, además de un lenguaje descriptivo. Se compone de tres módulos principales, el primero de ellos se encarga del procesamiento visual; donde se identifican los objetos y sus ubicaciones, también se reconocen las acciones ejecutadas por el operario. El segundo módulo se encarga del procesamiento del lenguaje que describe las acciones, que va ser utilizado luego para evaluar la ejecución del operario. Y el último módulo se encarga de tomar las salidas de los dos módulos anteriores, para determinar si realmente realiza el ensamble como está estipulado. Además, la arquitectura es capaz de establecer cuáles son las acciones siguientes que debe realizar el operario, para proveerle información de las herramientas o partes que debe tomar para continuar y minimizar los errores por uso incorrecto de herramientas o partes. Es importante señalar que, además de la arquitectura, este trabajo también genera como resultado, dos bases de datos. Debido a que, durante la investigación del estado del arte tampoco se logró determinar la existen-da de bases de datos para el entrenamiento de redes para la detección de herramientas o acciones de manufactura. La primera base de datos es de imágenes de herramientas, partes y componentes comunes de manufactura y la segunda se compone de videos de acciones comunes en los procesos de ensamblaje. También se propuso la generación de un lenguaje que permite describir las acciones necesarias para un proceso de ensamble. Mediante una secuencia de manufactura descrita con este lenguaje, se puede comparar un proceso de manufactura con las instrucciones que se van detectando en tiempo real. Determinando si el operario sigue los pasos tal y como fueron diseñados por los expertos en el diseño de productos. Este lenguaje, en conjunto con el módulo de verificación de acciones, permite que el sistema genere predicciones de las siguientes instrucciones o acciones.
5

Expansión de la capacidad de los filtros convolucionales en redes neuronales

Larregui, Juan Ignacio 10 May 2021 (has links)
En los últimos años el campo de la Visión Artificial ha experimentado un crecimiento acelerado con el éxito de las Redes Neuronales Artificiales y el Aprendizaje Profundo. La cantidad de datos etiquetados que se han relevado, las mejoras en hardware especializado y las importantes modificaciones introducidas en los algoritmos tradicionales surgidos en la segunda mitad del siglo pasado han posibilitado el avance en problemas complejos que parecían imposibles de abordar pocos años atrás. En particular, las Redes Neuronales Convolucionales se han convertido en el modelo más popular dentro de este campo de las Ciencias de la Computación. A lo largo de la década del 2010, los trabajos que avanzaron el estado del arte en los diferentes problemas de la Visión Artificial han incluido casi exclusivamente redes de este tipo. Sin embargo, algunos componentes de las Redes Convolucionales han mantenido sus estructuras y definiciones originales. Este es el caso de los filtros convolucionales, los cuales han mantenido su estructura geométrica estática en las últimas décadas. El objetivo general de esta tesis es explorar las limitaciones inherentes a la estructura tradicional de los filtros convolucionales, proponiendo nuevas definiciones y operaciones para superar las mismas. En esta línea, se presenta una generalización de la definición de los filtros convolucionales, extendiendo el concepto de dilatación de los mismos a intervalos continuos sobre las dimensiones espaciales. Adicionalmente, se presenta una nueva definición de la Convolución Dilatada para permitir comportamientos dinámicos durante el proceso de entrenamiento. Basadas en las definiciones introducidas, se proponen las nuevas operaciones de Convolución de Dilatación Adaptativa y Convolución de Dilatación Aleatoria. La primera introduce a las redes convolucionales la capacidad de optimizar la dilatación de los filtros de acuerdo a los datos de entrada, de manera de adaptarse dinámicamente a los cambios semánticos y geométricos presentes en las diferentes escenas. La segunda permite explorar la utilización de filtros de dilataciones aleatorias para simular transformaciones de escala, con el objetivo de aumentar la invariancia a escala de una red convolucional, una de sus limitaciones más conocidas. Finalmente, se definieron casos de estudio para Clasificación de Imágenes y Segmentación Semántica, de manera de obtener métricas cuantitativas que permitan evaluar las propuestas realizadas. Se realizaron múltiples entrenamientos de diferentes arquitecturas y configuraciones para redes conocidas en la literatura, mostrando resultados favorables con la inclusión de las operaciones propuestas. Más aún, el diseño de estas es modular, por lo que pueden ser incluidas en arquitecturas arbitrarias. / In the last years, the field of Computer Vision has seen incredible success through the adoption of Artificial Neural Networks and Deep Learning. The amount of labeled data, the improvements in specialized hardware, and further development in the traditional algorithms, have enabled advances in complex problems that seemed impossible to approach a few years before. In particular, these networks have become the most popular models within this field of Computer Sciences. Throughout the last decade, the state-of-the-art research in the different Computer Vision problems had almost exclusively included this type of model. However, the structure of some components of Convolutional Networks has remained almost unaffected. This is the case with convolutional filters, which have kept their original geometric structure in the last decades. The overall goal of this thesis is to explore the limitations inherent to the traditional structure of the convolutional filters, introducing new definitions and operations to overcome them. In this context, a generalization of the definition of convolutional filters is presented, extending the concept of dilation to continuous intervals in the spatial dimensions. Additionally, a new definition for the Dilated or Atrous Convolution is proposed, which enables dynamic behaviors in the dilation of the filters during the training process. Based on these new definitions, two new operations are presented: the Adaptive Dilation Convolution and the Random Dilation Convolution. The first one introduces the capacity for Convolutional Networks to optimize the dilation of the filters according to the input data, dynamically adapting to the semantic and geometric differences found across scenes. The second, enables the exploration of random dilations to simulate different scale transformations in the data, aiming to increase the scale invariance of these networks, one of their known limitations. Finally, different study cases were defined for Image Classification and Semantic Segmentation, in order to evaluate the introduced operations using quantitative metrics. Several training experiments were performed, using different architectures and configurations for renowned networks, showing positive results during the inclusion of the proposed operations. Moreover, their design is modular, enabling them to be included in arbitrary architectures.
6

Aplicación de aprendizaje profundo para la detección y clasificación automática de insectos agrícolas en trampas pegantes

Córdova Pérez, Claudia Sofía 30 September 2021 (has links)
La horticultura es una actividad que da trabajo a muchos peruanos en distintas zonas del país, sin embargo, gran parte de la producción de hortalizas es dañada por la alta incidencia de plagas de insectos. En la actualidad, un método efectivo para realizar el control de estas plagas es el uso de trampas pegantes, las cuales atraen y atrapan distintos tipos de insectos. Convencionalmente, las trampas pegantes son colocadas de forma que queden distanciadas uniformemente en el campo donde se realiza el cultivo y luego de varios días se realizan observaciones visuales por parte del personal entrenado en reconocimiento de insectos. No obstante, la información recopilada manualmente por el humano puede no ser tan exacta, pues existen diversos factores que pueden influir en la precisión de esta, por ejemplo, la habilidad de cada persona para detectar distintos tipos de insectos y la posible fatiga que puede ser consecuencia de haber realizado un trabajo manual por mucho tiempo y para una muestra grande de insectos. Las soluciones que se encontraron en la revisión sistemática para tratar problemas de detección de insectos fueron algoritmos de segmentación con cambio de espacio de color, lo cual permite remover el fondo de una imagen y centrarse únicamente en el objeto de interés; también, se encontraron estudios que usaron modelos de detección, los cuales hacen uso de aprendizaje profundo con redes neuronales convolucionales para lograr la identificación de los insectos. Esta última técnica ha dado resultados óptimos en distintos problemas visión computacional, por lo que el presente proyecto de investigación propone usar los modelos de detección pre-entrenados Faster R-CNN y YOLOv4 y aplicarles aprendizaje por transferencia para ajustarlos al problema de detección de tres tipos de plagas de insectos: la mosca blanca, la mosca minadora y el pulgón verde del melocotonero en etapa de adulto alado. Para ello, se debe contar con un corpus de imágenes de trampas pegantes con insectos plaga y, debido a la limitada disponibilidad de estas, se planteó construir un generador de imágenes realistas de trampas pegantes con insectos, el cual tiene en consideración factores realistas como la iluminación y el nivel de ruido en las imágenes, además, se usaron técnicas de segmentación y aumento de imágenes de modo que el corpus obtenido sea el adecuado para la fase de entrenamiento. Finalmente, se midió la métrica mAP de ambos modelos para los tres tipos de insectos. El modelo Faster R-CNN obtuvo 94.06% y el modelo YOLOv4, 95.82%, donde se concluye que el desempeño de ambos detectores es aceptable.
7

Propuesta de mejora en el planeamiento de la producción de botellas aplicando un MPS y pronósticos basados en Deep Learning en una empresa productiva y envasadora de agua en el Callao

Tupayachi Silva, José Alberto 05 May 2021 (has links)
En los últimos tres años el nivel de venta de agua embotellada para consumo humano en el Perú muestra un crecimiento en las ventas realizadas por las empresas productoras a los supermercados, bodegas, mercados y tiendas de conveniencias, esto se evidencia en el incremento del 3.9% de este sector productivo al cierre del 2017. La facturación de las grandes cadenas de supermercados a nivel nacional ha alcanzado los 14,000 000 PEN con un crecimiento del 5.3% respecto al año 2016. Esto demuestra que este sector económico está en crecimiento por el alto consumo de agua embotellada. La presente empresa a analizar se dedica a la producción de agua embotellada de marca propia y de maquila para sus principales clientes: Cencosud Retail S.A. y Supermercados Peruanos S.A., empresa joven y mediana con 43 trabajadores en planilla presente en el ámbito nacional, de importante participación en el mercado, que a partir del 2017 ha experimentado un fuerte crecimiento tras la priorización de la producción del cliente Supermercados Peruanos S.A en la presente empresa. Sus productos cuentan con 69% de participación a nivel supermercados y en el 2018 presenta un posicionamiento en el mercado que se encuentra dentro del 10.4%, compartiendo el mercado nacional con grandes embotelladoras como AB InBev, CBC Perú, Arca Continental e ISM, cabe resaltar que su portafolio de productos en primer trimestre del 2019 presenta la siguiente composición: Bells 48.04%, Wong 12.32%, Metro 28.11%, Selfie 11.53%. Lo cual representa un crecimiento en ventas respecto al trimestre anterior del 8%, el cual se provee ser mantenido. El aumento de pedidos de la presentación de 2.5L Bells, ha ocasionado que la falta de una planeación en la demanda y el incorrecto manejo de almacenes comiencen a generar problemas incumplimiento de pedidos, en promedio 17% entre los cuales se encuentran el abastecimiento incompleto a clientes, penalidades por entrega tardía, roturas en el stock de producto terminado, baja calidad del producto entre otros. El proceso critico de la empresa se presenta en las áreas de producción y logística. En primer lugar, actualmente se utilizan metodologías para el cálculo de la demanda que no corresponden a la realidad, dado esto, la producción se basa en los pedidos actuales. No se mantiene ningún pronóstico de la demanda útil para producción y se carece de un sistema de inventarios. Como resultado se genera que se incurra en el incumplimiento de los pedidos, acrecentado por el incremento de las ventas en estos últimos años. Se puede observar, según datos del último trimestre del año 2019 la cantidad de agua tratada requerida en diferentes presentaciones ascendió a la cantidad de: 538312.2 L. En segundo lugar, se evidencia de que existe una cantidad considerable de mermas en distintas fases del proceso productivo, se observa que la utilización del agua tratada tiene una eficacia de aproximadamente el 40%, para las etapas de llenado, sellado y empacado, existe un nivel de merma del 8.8% en promedio el cual comprende los recursos utilizados en cada etapa del proceso productivo respectivamente, dado al uso excesivo de las horas extras y de la utilización de los equipos hasta su falla . Se verifico que el número de horas extras por mes en el último trimestre del año 2019 alcanzo 628,5 horas extras en distintas posiciones, es decir se requiere de dichas horas adicionales para la culminación de los pedidos. Lo presente lleva a concluir que se debe plantear una reingeniería en la planificación, inventarios y ritmo de trabajo. Se propondrá solucionar los problemas actuales de la empresa mediante la implementación de un MPS Master Production Schedule a partir del análisis de la demanda apoyado por la aplicación de herramientas de analítica de datos con el cual se pretende implementar un modelo de Deep Learning LTSM y consecuentemente desarrollar una correcta planificación de la producción, establecer un sistema de inventarios y aumentar la productividad a través del TaktTime.
8

Estimación del carbono almacenado en paisajes agropecuarios y ganaderos a partir de Imágenes multiespectrales capturadas por drones, y técnicas de aprendizaje profundo

Tovar Galarreta, Juan Carlos Alfredo 10 January 2024 (has links)
Los paisajes agrícolas y ganaderos están estrechamente relacionados con el flujo de carbono, ya que actúan como reservorios de carbono en forma de biomasa. La evaluación de las reservas de carbono almacenadas en estas zonas es importante para apoyar la toma de decisiones que impidan que estas zonas se conviertan en fuentes de emisión de carbono. Sin embargo, las técnicas tradicionales de estimación de las reservas de carbono requieren un muestreo in situ, lo que supone una tarea extenuante, arriesgada, costosa DE escasa cobertura. En este estudio, proponemos una metodología, basada en imágenes multiespectrales capturadas por drones y modelos de aprendizaje profundo, para automatizar la tarea de estimar mapas de reservas de carbono almacenados en paisajes agrícolas y ganaderos. Aplicamos una arquitectura de red neuronal U-Net para discriminar las zonas arbóreas y pastizales. Luego, se desarrolla un modelo basado en redes neuronales convolucionales para la estimación de la densidad de carbono a partir de imágenes multiespectrales. Resultados experimentales en paisajes agrícolas y ganaderos de la Amazonía peruana mostraron la efectividad de la metodología propuesta, reportando un mIoU de 87%, un RMSE de 2.44 para zonas arbóreas, y un RMSE de 1.84 para zonas de pastura. Concluimos que la estimación de la densidad de carbono es alcanzable con el enfoque propuesto. Esta metodología puede ser útil para la toma de decisiones y puede contribuir a la gestión o al control del cambio climático. / Agricultural and livestock landscapes are closely related to carbon flux, serving as carbon 1 reservoirs in the form of biomass.The assessment of carbon stocks stored in these areas is important to 2 support decision-making that prevents these areas from becoming carbone misión sources. However, 3 traditional carbon stock estimation techniques require on-site sampling, which is a strenuous, risky, 4 expensive and low-coverage task. In this study, we propose a methodology, based on multispectral 5 images captured by drones and Deep learning models, to automate the task of estimating maps of 6 carbon stocks sequestered in agricultural and livestock landscapes. We applied U-Net neural network 7 architecture to discriminate arboreal and grasslands zones. Then, a convolutional neural-network 8 based model is developed for carbon density estimation from multispectral images. Experimental 9 results on agricultural and livestock landscapes in Peruvian Amazon regions showed the effectiveness 10 of the proposed methodology, reporting mIoU of 87%, RMSE of 2.44 for arboreal zones, and RMSE 11 of 1.84 for grassland zones. We conclude that the carbon density estimation is achievable with the 12 proposed approach. This methodology can be helpful for decision-making and may contribute to the 13 management or controlling climate change.
9

Pronóstico del precio de cobre utilizando técnicas de aprendizaje profundo

Carhuas Ñañez, Milton Cesar 06 March 2023 (has links)
Pronosticar los precios futuros de cobre es una tarea desafiante dadas las características dinámicas y no lineales de varios factores que afectan el precio del cobre. Este artículo describe modelos de pronóstico, basados en arquitecturas de redes neuronales, para predecir los retornos del precio de cobre en tres horizontes de tiempo: un día, una semana y un mes adelante. Diversas variables se consideran como variables de entrada, como los precios históricos de diferentes materias primas metálicas y variables macroeconómicas globales. Evaluamos los modelos con datos diarios de 2007 a 2020. Los resultados experimentales mostraron que los modelos de salida única presentan un mejor rendimiento predictivo que los modelos de salida múltiple. Las arquitecturas de mejor rendimiento fueron los modelos de memorias largas a corto plazo (LSTM) en datos de prueba. / Forecasting the future prices of copper commodity is a challenging task given the dynamic and non-linear characteristics of various factors that affect the copper price. This article describes forecasting models, based on neural network architectures, to predict copper price returns at three time horizons: one-day, one-week, and onemonth ahead. Several variables are considered as input variables, like historical prices of different metallic commodities and global macroeconomic variables. We evaluated the models with daily data from 2007 to 2020. The experimental results showed that mono-output models present better predictive performance than multi-output models. The best-performing architectures were the Long Short-Term Memories (LSTM) models on test data.
10

Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo

Morales Pariona, Jose Ulises 16 April 2024 (has links)
Desde que aparecieron las redes GAN, se han realizado varias investigaciones sobre cómo generar imágenes en diversos ámbitos, como la generación de imágenes, conversión de imágenes, síntesis de videos, síntesis de imágenes a partir de textos y predicción de cuadros de videos. Basándose mayormente en mejorar la generación de imágenes de alta resolución y la reconstrucción o predicción de datos. El propósito de este trabajo es implementar las redes GAN en otros ámbitos, como la generación de imágenes de entidades realizando una acción. En este caso se consideró 3 acciones de personas, que son los ejercicios de Glúteo, Abdomen y Cardio. En primer lugar, se descargaron y procesaron las imágenes de YouTube, el cual incluye una secuencia de imágenes de cada acción. Posteriormente, se separó dos grupos de imágenes, de una sola persona, y de personas diferentes realizando las acciones. En segundo lugar, se seleccionó el modelo InfoGAN para la generación de imágenes, teniendo como evaluador de rendimiento, la Puntuación Inicial (PI). Obteniendo como resultados para el primer grupo, una puntuación máxima de 1.28 y en el segundo grupo, una puntuación máxima de 1.3. En conclusión, aunque no se obtuvo el puntaje máximo de 3 para este evaluador de rendimiento, debido a la cantidad y calidad de las imágenes. Se aprecia, que el modelo si logra diferenciar los 3 tipos de ejercicios, aunque existen casos donde se muestran incorrectamente las piernas, los brazos y la cabeza. / Since the appearance of GAN networks, various investigations have been carried out on how to generate images in various fields, such as image generation, image conversion, video synthesis, image synthesis from text, and video frame prediction. Based mostly on improving the generation of high resolution images and the reconstruction or prediction of data. The purpose of this work is to implement GAN networks in other areas, such as the generation of images of entities performing an action. In this case, 3 actions of people were considered, which are the Gluteus, Abdomen and Cardio exercises. First, the images from YouTube were downloaded and processed, which includes a sequence of images of each action. Subsequently, two groups of images were separated, of a single person, and of different people performing the actions. Secondly, the InfoGAN model was selected for image generation, having the Initial Score (PI) as a performance evaluator. Obtaining as results for the first group, a maximum score of 1.28 and in the second group, a maximum score of 1.3. In conclusion, although the maximum score of 3 was not obtained for this performance tester, due to the quantity and quality of the images. It can be seen that the model is able to differentiate the 3 types of exercises, although there are cases where the legs, arms and head are shown incorrectly.

Page generated in 0.0941 seconds