• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 89
  • 41
  • Tagged with
  • 130
  • 130
  • 65
  • 62
  • 53
  • 52
  • 52
  • 52
  • 52
  • 52
  • 50
  • 45
  • 37
  • 29
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Técnicas de Aprendizaje Automático Aplicadas al Procesamiento de Información Demográfica

Ruiz, Zoila 11 June 2019 (has links)
En este trabajo, se presenta una metodología orientada a procesar datos provenientes de censos o encuestas. La metodología propuesta se basa en las características de los grandes volúmenes de datos y la relevancia que tiene la información que se obtiene de censos o encuestas. El método propuesto aborda el problema de imputación de datos perdidos o ausentes que son muy frecuentes en censos o encuestas. Previo al proceso de imputación, la información necesita ser procesada para extraer un subconjunto de información completa necesaria para entrenar modelos de aprendizaje automático con la finalidad de predecir los valores ausentes. Para conseguir este dataset se utilizaron varias técnicas tradicionales tales como Pairwise Deletion y Listwise Deletion con la finalidad de eliminar observaciones que presentan valores perdidos. Como siguiente paso en la metodología, se plantea la generación de grupos de información a través de técnicas de aprendizaje automático no supervisado y a través de redes neuronales artificiales. Estos grupos de información que comparten características comunes sirven como fuente de entrada en el proceso de imputación de datos perdidos o ausentes. Los resultados obtenidos en la fase experimental muestran que la generación de grupos (de forma manual o automática) permiten mejorar la clasificación de la variable de prueba, sin embargo también se debe considerar la etapa previa a la de generación de grupos. Finalmente, como caso de estudio para validar la propuesta se plantea la imputación de datos para calcular la tasa de mortalidad infantil con brechas educativas para lo cual se seleccionó un dataset de pruebas de una región geográfica específica.
22

Arquitectura para el control visual de ensamblajes en Industria 4.0 basado en aprendizaje profundo

Zamora Hernández, Mauricio Andrés 27 October 2020 (has links)
En Costa Rica, el tipo de empresa que sobresale en el mercado es el de las Micro, Pequeñas y Medianas Empresas (MiPyMEs). Para este tipo de empresas, la calidad y consistencia de los productos son elementos diferenciadores para competir en el mercado. Además, estás empresas tiene recursos económicos limitados para implementar tecnologías que le permitan incursionar en la cuarta revolución industrial. Aunque las MiP y MEs, y en concreto las del sector manufacturero, son consideradas uno de los motores económico del país, estás entidades no suelen tener ayudas del gobierno para desarrollarse digitalmente. Esto situación nos motivó a plantear un estudio para encontrar la manera en que se puede ayudar a las MiP y MEs a mejorar los procesos de manufactura. Debido principalmente a que en este tipo de negocios se basan en trabajos manuales, con personal poco cualificado; por lo que estos elementos afectan directamente la calidad de los productos desde su concepción. Se planteó un sistema de control de calidad visual que ayude a controlar la calidad durante la fase de producción, incentivando así el desarrollo de productos de calidad. Para este propósito se plantean soluciones basadas en técnicas de Visión por computadora (CV), junto con algoritmos de Machine Learning y arquitecturas de Deep Learning. Esta tesis doctoral se inició realizando una revisión del estado del arte sobre los procesos de interacción humano-robot (HRI), sistemas de control automático de calidad en los sistemas de producción, aplicación de la CV en entornos de manufactura, utilización de arquitecturas de Deep Learningy las bases de datos de imágenes de herramientas, piezas y componentesr equeridos para la manufactura. Así como bases de datos de vídeos de acciones. El resultado del estudio sirvió como base para el desarrollo del estado del arte y el conocimiento de las técnicas actuales de Deep Learning que permiten identificar objetos y acciones; particularmente para el control de la producción con operarios. Por lo que se logró evidenciar que no existían soluciones inteligentes basada en visión que permitan controlar secuencias de ensamble en la producción manual. Tras este estudio del estado del arte, se ha propuesto una arquitectura de visión por computador, reconocimiento de objetos y acciones, además de un lenguaje descriptivo. Se compone de tres módulos principales, el primero de ellos se encarga del procesamiento visual; donde se identifican los objetos y sus ubicaciones, también se reconocen las acciones ejecutadas por el operario. El segundo módulo se encarga del procesamiento del lenguaje que describe las acciones, que va ser utilizado luego para evaluar la ejecución del operario. Y el último módulo se encarga de tomar las salidas de los dos módulos anteriores, para determinar si realmente realiza el ensamble como está estipulado. Además, la arquitectura es capaz de establecer cuáles son las acciones siguientes que debe realizar el operario, para proveerle información de las herramientas o partes que debe tomar para continuar y minimizar los errores por uso incorrecto de herramientas o partes. Es importante señalar que, además de la arquitectura, este trabajo también genera como resultado, dos bases de datos. Debido a que, durante la investigación del estado del arte tampoco se logró determinar la existen-da de bases de datos para el entrenamiento de redes para la detección de herramientas o acciones de manufactura. La primera base de datos es de imágenes de herramientas, partes y componentes comunes de manufactura y la segunda se compone de videos de acciones comunes en los procesos de ensamblaje. También se propuso la generación de un lenguaje que permite describir las acciones necesarias para un proceso de ensamble. Mediante una secuencia de manufactura descrita con este lenguaje, se puede comparar un proceso de manufactura con las instrucciones que se van detectando en tiempo real. Determinando si el operario sigue los pasos tal y como fueron diseñados por los expertos en el diseño de productos. Este lenguaje, en conjunto con el módulo de verificación de acciones, permite que el sistema genere predicciones de las siguientes instrucciones o acciones.
23

Implementación de un algoritmo de aprendizaje profundo basado en eventos para el problema de predicción de movimiento bursátil

Bustamante Arce, Jaime Diego 30 November 2021 (has links)
La predicción de precios bursátiles, acciones e índices siempre ha sido un tema de interés en el mundo financiero, no solo por su capacidad de originar grandes rentabilidades en poco tiempo, sino también por su volatilidad y complejidad. Así, desde que los mercados bursátiles fueron concebidos diferentes investigadores en variadas áreas han tratado de “vencerlo” prediciendo su comportamiento, como el índice S&P 500 que lista la cotización de las 500 corporaciones más líquidas de la Bolsa de New York. Uno de los enfoques es el fundamentalista, que busca predecirlo de acuerdo a las noticias en los medios de las empresas listadas en la Bolsa de Valores. Desde el lado informático, diversas técnicas han venido siendo aplicadas para realizar esta predicción como estadísticas y las clásicas herramientas de aprendizaje de máquina. Sin embargo, con el creciente aumento de volumen de información, se hace necesario aplicar técnicas que consigan lidiar con esta información no estructurada. Técnicas como redes profundas recurrentes (LSTM), se han mostrado ad-hoc para el manejo de información temporal, debido a que tienen de capacidad de memorizar hechos pasados, que persisten en el tiempo. En el presente trabajo se propone una metodología y conjunto de redes neuronales profundas para la predicción de movimiento bursátil a partir de eventos y noticias corporativas. Para ello no solo se considera la contextualización de palabras, sino también sus relaciones y composición semántica, estructura e historia para la predicción del índice S&P 500. En resumen, el presente proyecto obtiene resultados exitosos puesto que sobrepasan a los del estado del arte. Así, el conjunto de modelos neuronales propuestos puede ser usados como apoyo en la decisión de inversión diaria en el índice S&P 500.
24

Desarrollo de un Framework para la identificación del nivel de complejidad de texto para el entrenamiento de chatbots basado en Machine Learning

Matos Rios, Hans 21 March 2022 (has links)
La generación de diálogo implica diseñar un programa para generar una conversación natural, esto requiere desarrollar algoritmos que puedan conversar con un ser humano y otro programa de manera coherente y fluida. Desarrollar una conversación también depende del contexto y conocimiento del interlocutor, lo cual nos lleva a definir la existencia de niveles de complejidad conversacional, la cual se refiere a determinar que tan fácil o difícil de leer es un texto. En este aspecto, especialmente para el idioma español, no existe una herramienta que tenga un módulo propio que le permita clasificar textos en español por su complejidad textual. En el presente trabajo de fin de carrera se realiza el desarrollo de un módulo en el lenguaje de programación Python, el cual funciona como un Framework para identificar la complejidad textual de textos en español usando técnicas de Machine Learning. Para ello, en primer lugar, se implementaron 48 métricas de análisis de complejidad textual basadas en Coh-Metrix usando el lenguaje de programación Python. Dichas métricas convierten textos en español en datos numéricos con los cuales se entrenaron distintos modelos de Machine Learning, con el motivo de obtener el mejor modelo a utilizar con el Framework desarrollado, siendo este capaz de utilizar un modelo personalizado provisto por el usuario. Para ello, se necesitó obtener un corpus de 183 textos en español para realizar dicho entrenamiento, el cual fue obtenido al descargar textos educativos de nivel primaria y secundaria. Por último, se entrenó un chatbot con los textos obtenidos para el corpus, cuyas respuestas generadas fueron analizados con el Framework previamente desarrollado, identificando que el nivel de complejidad de dichas respuestas correspondía al nivel de los textos con los cuales el chatbot fue entrenado. En conclusión, en el presente proyecto de investigación se desarrolla un módulo de Python que funciona como un Framework, el cual es capaz de identificar la complejidad textual de textos en español, ya sea con el mejor modelo de Machine Learning utilizado en el presente proyecto o utilizando uno provisto por el usuario de la herramienta.
25

Modelo computacional basado en imágenes para obtener los índices de habitabilidad de los aspectos psicosociales y psicoespaciales de la ciudad de Chiclayo

Asalde Del Rio, Sandra Cecilia January 2021 (has links)
La planificación urbana ha evolucionado a la par con la tecnología, la ciudad se va convirtiendo en una fusión de lo físico y lo digital. Los datos que se generan diariamente y las plataformas de comunicación existentes pueden ser usados como herramienta de diseño, ya no existe una excusa para no considerar la opinión del poblador dentro de dicho proceso. Los problemas de las ciudades pueden iniciar a remediarse conociendo las percepciones subjetivas de sus habitantes. Esta investigación observa un problema urbano fundamental poco atendido, cuya solución aún tiene un largo camino por recorrer. Para delimitar el estudio, se toma a la ciudad de Chiclayo como ejemplo y se propone la recolección de imágenes y datos de ciertas zonas de la urbe para el desarrollo de un modelo computacional que convierta dichas percepciones en objetivas, de manera que se puedan predecir. A través del procesamiento de imágenes para obtener los objetos que contienen, la definición de los índices de habitabilidad para los aspectos subjetivos, y el aprendizaje automático supervisado de un algoritmo de clasificación; se consigue dicho modelo predictivo. Con una precisión mayor al 60%, y validado por expertos en psicología, sociología, arquitectura y urbanismo; este producto puede ser utilizado para crear herramientas de visualización que apoyen la toma de decisiones de los diseñadores de ciudad, generando así un lugar habitable y agradable para todos.
26

Descubrimiento Automático de Flujos de Aprendizaje de Máquina basado en Gramáticas Probabilı́sticas

Estévez-Velarde, Suilan 02 December 2021 (has links)
El aprendizaje de máquinas ha ganado terreno utilizándose en casi todas las áreas de la vida cotidiana, ayudando a tomar decisiones en las finanzas, la medicina, el comercio y el entretenimiento. El desarrollo continuo de nuevos algoritmos y técnicas de aprendizaje automático, y la amplia gama de herramientas y conjuntos de datos disponibles han traído nuevas oportunidades y desafíos para investigadores y profesionales tanto del mundo académico como de la industria. Seleccionar la mejor estrategia posible para resolver un problema de aprendizaje automático es cada vez más difícil, en parte porque requiere largos tiempos de experimentación y profundos conocimientos técnicos. En este escenario, el campo de investigación Automated Machine Learning (AutoML) ha ganado protagonismo, proponiendo estrategias para automatizar progresivamente tareas usuales durante el desarrollo de aplicaciones de aprendizaje de máquina. Las herramientas de AutoML más comunes permiten seleccionar automáticamente dentro de un conjunto restringido de algoritmos y parámetros la mejor estrategia para cierto conjunto de datos. Sin embargo, los problemas prácticos a menudo requieren combinar y comparar algoritmos heterogéneos implementados con diferentes tecnologías subyacentes. Un ejemplo es el procesamiento del lenguaje natural, un escenario donde varía el espacio de posibles técnicas a aplicar ampliamente entre diferentes tareas, desde el preprocesamiento hasta la representación y clasificación de textos. Realizar AutoML en un escenario heterogéneo como este es complejo porque la solución necesaria podría incluir herramientas y bibliotecas no compatibles entre sí. Esto requeriría que todos los algoritmos acuerden un protocolo común que permita la salida de un algoritmo para ser compartida como entradas a cualquier otro. En esta investigación se diseña e implementa un sistema de AutoML que utiliza técnicas heterogéneas. A diferencia de los enfoques de AutoML existentes, nuestra contribución puede combinar técnicas y algoritmos de diferentes bibliotecas y tecnologías, incluidos algoritmos de aprendizaje de máquina clásicos, extracción de características, herramientas de procesamiento de lenguaje natural y diversas arquitecturas de redes neuronales. Definimos el problema heterogéneo de optimización de AutoML como la búsqueda de la mejor secuencia de algoritmos que transforme datos de entrada específicos en la salida deseada. Esto proporciona un enfoque teórico y práctico novedoso para AutoML. Nuestra propuesta se evalúa experimentalmente en diversos problemas de aprendizaje automático y se compara con enfoques alternativos, lo que demuestra que es competitiva con otras alternativas de AutoML en los puntos de referencia estándar. Además, se puede aplicar a escenarios novedosos, como varias tareas de procesamiento de lenguaje natural, donde las alternativas existentes no se pueden implementar directamente. El sistema está disponible de forma gratuita e incluye compatibilidad incorporada con una gran cantidad de marcos de aprendizaje automático populares, lo que hace que nuestro enfoque sea útil para resolver problemas prácticos con relativa facilidad y esfuerzo. El uso de la herramienta propuesta en esta investigación permite a los investigadores y profesionales desarrollar rápidamente algoritmos de referencia optimizados en diversos problemas de aprendizaje automático. En algunos escenarios, la solución proporcionada por nuestro sistema podría ser suficiente. Sin embargo, los sistemas AutoML no deben intentar reemplazar a los expertos humanos, sino servir como herramientas complementarias que permitan a los investigadores obtener rápidamente mejores prototipos y conocimientos sobre las estrategias más prometedoras en un problema concreto. Las técnicas de AutoML abren las puertas a revolucionar la forma en que se realiza la investigación y el desarrollo del aprendizaje automático en la academia y la industria.
27

Ecosistema para el Descubrimiento de Conocimiento en Lenguaje Natural

Piad-Morffis, Alejandro 16 December 2021 (has links)
La creciente cantidad de información publicada en línea presenta un reto significativo para la comunidad científica. La disponibilidad de estos recursos permite acelerar las investigaciones en múltiples ramas de la ciencia, al conectar resultados de diferentes grupos de investigadores. Sin embargo, el volumen de información producido es imposible de procesar por humanos en su totalidad, por lo que la comunidad científica desperdicia tiempo y recursos en redescubrir los mismos resultados, debido a la falta de comunicación. La aplicación de técnicas de inteligencia artificial permite construir sistemas computacionales que ayuden a los investigadores a buscar, analizar y conectar la información existente en grandes volúmenes de datos. Este proceso se denomina descubrimiento automático de conocimiento y es una rama de investigación con un creciente interés. El dominio de la salud es uno de los escenarios en los que el descubrimiento de conocimiento automático puede producir un mayor impacto en beneficio de la sociedad. La reciente pandemia de COVID-19 es un ejemplo donde la producción de artículos científicos ha superado con creces la capacidad de la comunidad científica para asimilarlos. Para mitigar este fenómeno se han publicado recursos lingüísticos que permitan construir sistemas de descubrimiento automático de conocimiento. Sin embargo, el descubrimiento de conocimiento requiere no solo de recursos lingüísticos, sino que necesita recursos computacionales e infraestructura disponibles para evaluar los resultados sistemáticamente y comparar objetivamente enfoques alternativos. Este trabajo describe un ecosistema que facilita la investigación y el desarrollo en el descubrimiento de conocimiento en el dominio biomédico, específicamente en idioma español, aunque puede ser extendido a otros dominios e idiomas. Con este fin, se desarrollan y comparten varios recursos con la comunidad investigadora, incluido un nuevo modelo de anotación semántica, cuatro corpus con más de 3000 oraciones y 40,000 anotaciones semánticas realizadas manualmente, así como recursos computacionales para construir y evaluar técnicas de descubrimiento automático de conocimiento. Entre estos recursos se ofrecen implementaciones baseline de algoritmos de descubrimiento de conocimiento que sirvan de base para construir soluciones más avanzadas. Además, se define una tarea de investigación con criterios de evaluación objetivos y se configura y mantiene un entorno de evaluación en línea que permite a los investigadores interesados en esta tarea obtener retroalimentación inmediata y comparar sus resultados con el estado del arte. Como caso de estudio, se analizan los resultados de varios equipos de investigadores en cuatro ediciones consecutivas de un desafío competitivo organizado en base a estos recursos. A partir de las experiencias obtenidas durante el proceso de anotación manual se diseña una estrategia de anotación asistida que permite reducir considerablemente el tiempo de anotación humano. El enfoque ayuda a los anotadores humanos seleccionando inteligentemente las oraciones más informativas para anotar y luego pre-anotarlas con algunas entidades y relaciones semánticas altamente precisas. Esta estrategia se evalúa en los corpus desarrollados en esta investigación, y se publica en forma de una herramienta computacional disponible para la comunidad científica. El ecosistema construido proporciona un entorno de aprendizaje y evaluación eficaz para fomentar la investigación en el descubrimiento de conocimientos tanto en documentos de contenido biomédico como en otros dominios. Los corpus anotados pueden ser utilizados para entrenar y evaluar sistemas computacionales de descubrimiento de conocimiento, y compararse con el estado del arte de forma automática. Así mismo, las herramientas computacionales desarrolladas pueden servir para construir nuevos sistemas y para crear nuevos recursos lingüísticos en otros idiomas o dominios. Todos los recursos desarrollados en esta investigación están disponibles públicamente para su uso por la comunidad científica (https://ehealthkd.github.io).
28

Evaluación de modelos de segmentación semántica para el monitoreo de deslizamiento de tierra utilizando imágenes satelitales

Yali Samaniego, Roy Marco 03 April 2024 (has links)
En el ámbito del aprendizaje automático, un desafío persistente es la disponibilidad de datos suficientes, especialmente en tareas de visión por computadora. Este desafío se amplifica cuando se trabaja con sensores remotos, donde las bases de datos etiquetadas para abordar problemas son escasas. Este manuscrito examina críticamente el monitoreo de deslizamientos de tierra en el paisaje peruano y presenta tres contribuciones en esta dirección. La primera contribución expande un conjunto de datos de imágenes satelital es sobre deslizamientos de tierra (Landslide4Sense) proveniente de territorios asiáticos, con 3799 imágenes debidamente etiquetadas. Reconociendo la dinámica geoespacial de Perú, se incrementó este conjunto de datos con 838 escenarios locales. Estas adiciones mantienen congruencia con el conjunto de datos original en términos de atributos y configuración, asegurando replicabilidad y escalabilidad para futuras investigaciones. La segunda evalúa varios modelos de segmentación semántica basados en la arquitectura U-net, reforzada por la función de pérdida de Entropía Cruzada Ponderada + Dice Loss, óptima en tareas de segmentación con conjuntos de datos desequilibrados. Los resultados permiten alcanzar un F1-Score del 75.5% con la arquitectura U-net (vanilla) superando el benchmark de referencia del 71.65%. La última contribución muestra un desarrollado integral para la adquisición de datos, procesamiento y entrenamiento/evaluación de modelos. Dado que este marco tiene el potencial de impulsar una aplicabilidad general de sistemas de segmentación a sistemas de monitoreo de deslizamientos de tierra, y detener un alcance más amplio a la comunidad académica y partes interesadas gubernamentales en Latinoamérica y en todo el mundo.
29

Desarrollo de modelo predictivo de desgaste basado en datos de ensayos según ASTM G-65 utilizando algoritmos de Machine Learning

Cabanillas Flores, Renato 24 January 2023 (has links)
Los ensayos de desgaste según la norma ASTM G-65 son realizados para determinar la resistencia al desgaste abrasivo de bajo esfuerzo de un material mediante su exposición al contacto con arena seca. Estos ensayos permiten la evaluación de recargues duros o hardfacing con la finalidad de encontrar los efectos de los elementos aleantes sobre la microestructura y la resistencia al desgaste. Por su parte, el aprendizaje automático, conocido como Machine Learning, es una técnica del campo de la inteligencia artificial que busca desarrollar modelos computacionales con la capacidad de realizar tareas de clasificación y regresión. La metodología utilizada para realizar el entrenamiento, y posterior evaluación de los modelos obtenidos, consiste en la digitalización de los registros de ensayos de desgaste ejecutados por la American Welding Society, el análisis del comportamiento de la pérdida de masa en función del porcentaje de la concentración de los elementos presentes en el depósito del recargue duro y el desarrollo de los siguientes algoritmos de modelos de aprendizaje automático: k-vecinos cercanos (KNN), red neuronal artificial (ANN) y máquina de aprendizaje extremo (ELM). Posterior al entrenamiento, se emplearon los modelos ya entrenados para calcular la pérdida de masa en probetas previamente ensayadas en el Laboratorio de Materiales de la Pontificia Universidad Católica del Perú (PUCP) y así evaluar la efectividad de los modelos en la sección de resultados. Para los modelos entrenados se identificaron las variantes con mejor efectividad en la predicción de pérdida de masa, las cuales fueron la red neuronal artificial de 3 capas entrenada en 1000 épocas, el modelo de k-vecinos cercanos con 6 vecinos y la máquina de aprendizaje extremo con 10,000 neuronas. Para la comparación con datos de ensayos realizado sen la PUCP se obtuvo un error medio absoluto de 0.086 g para ANN, 0.726 g para KNN 0.853 g para ELM; en contraste con los valores de 0.228 g, 0.321 g y 0.666 g obtenidos para los ensayos realizado por la AWS, respectivamente. De entre los 3 modelos entrenados, se identifica que la red neuronal artificial congrega la mayor cantidad de puntos cercanos a la igualdad entre el valor real de pérdida de masa y la predicción calculada mediante el modelo. Se concluye que la ANN puede predecir con éxito la pérdida de masa en función de la composición química del depósito y su dureza, alcanzando una precisión del 85.75%. Por otro lado, la ELM requiere elevados recursos computacionales para entrenarse por encima de las 500,000 neuronas, así como un análisis más profundo para evitar el sobreajuste del modelo a los datos de entrenamiento. El algoritmo KNN no calcula exitosamente la masa perdida en un ensayo de desgaste debido a que entrega valores de promedios locales para datos que no se estructuran de forma ordenada. Finalmente, los resultados alcanzados brindan validez a la aplicación de técnicas de aprendizaje automático para encontrar la pérdida de masa en ensayos de desgaste.
30

Clasificación del territorio peruano de acuerdo con su potencial de agua subterránea utilizando algoritmos de aprendizaje automatizado

Portocarrero Rodríguez, César Augusto 16 December 2020 (has links)
El agravamiento del estrés hídrico tanto en el sector urbano como en el rural motiva cada vez más a los tomadores de decisión a impulsar la explotación sostenible de este recurso. Para ello, se requiere conocer con certeza los emplazamientos con un mayor potencial de explotación. Para hacer frente a este problema sin recurrir a perforaciones directas, la presente investigación tiene como objetivo principal explorar el potencial hidrológico subterráneo del Perú correspondiente a acuíferos de baja profundidad mediante la aplicación de modelos de clasificación de bosques aleatorios y redes neuronales, dos algoritmos de aprendizaje automatizado. Esta rama de la inteligencia artificial permite generar modelos multidimensionales y con variables complejas sin efectuar presuposiciones estadísticas. Para explicar el potencial de agua subterránea, se recurren a variables topográficas, hidrológicas, geológicas, pedológicas y ambientales que influyen en diferente medida en la conductividad hidráulica subterránea y en la tasa de recarga de los acuíferos. Los resultados obtenidos indican que el mejor desempeño equiparable al estado del arte se obtiene para el modelo de bosques aleatorios (exactitud=0.77, puntaje F1=0.73, AUC=0.88) y que la construcción de modelos especializados en una región dada permite mejorar la capacidad de los modelos al reducir la varianza de los datos. Las variables más importantes en los modelos fueron: aspecto, densidad de drenaje, elevación, NDWI y precipitación. La principal limitación identificada en el desempeño de los modelos es la escasa cantidad y distribución irregular de los pozos de caudal conocido en el Perú, factor que parcializa el modelo hacia la costa, la región mejor documentada. El presente estudio sirve como marco referencial para la construcción de futuros modelos de aprendizaje automatizado una vez se amplíe el inventario público de pozos de agua subterránea o en caso privados introduzcan su propio inventario. El código empleado para el procesamiento de variables geoespaciales se encuentra en https://code.earthengine.google.com/fe63cd6184b009824ed3c843fdc5544d. El código utilizado para la construcción de modelos se encuentra registrado en Github en https://github.com/cesport/Tesis. Aplicaciones para visualizar los resultados de manera interactiva están disponibles para computadoras en https://cesarportocarrero.users.earthengine.app/view/gwp-peru y dispositivos móviles en https://cesarportocarrero.users.earthengine.app/view/gwp-peru-movil.

Page generated in 0.0811 seconds