• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 77
  • 39
  • Tagged with
  • 116
  • 116
  • 58
  • 55
  • 49
  • 46
  • 43
  • 43
  • 43
  • 43
  • 43
  • 36
  • 32
  • 27
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Implementación de un algoritmo de aprendizaje profundo basado en eventos para el problema de predicción de movimiento bursátil

Bustamante Arce, Jaime Diego 30 November 2021 (has links)
La predicción de precios bursátiles, acciones e índices siempre ha sido un tema de interés en el mundo financiero, no solo por su capacidad de originar grandes rentabilidades en poco tiempo, sino también por su volatilidad y complejidad. Así, desde que los mercados bursátiles fueron concebidos diferentes investigadores en variadas áreas han tratado de “vencerlo” prediciendo su comportamiento, como el índice S&P 500 que lista la cotización de las 500 corporaciones más líquidas de la Bolsa de New York. Uno de los enfoques es el fundamentalista, que busca predecirlo de acuerdo a las noticias en los medios de las empresas listadas en la Bolsa de Valores. Desde el lado informático, diversas técnicas han venido siendo aplicadas para realizar esta predicción como estadísticas y las clásicas herramientas de aprendizaje de máquina. Sin embargo, con el creciente aumento de volumen de información, se hace necesario aplicar técnicas que consigan lidiar con esta información no estructurada. Técnicas como redes profundas recurrentes (LSTM), se han mostrado ad-hoc para el manejo de información temporal, debido a que tienen de capacidad de memorizar hechos pasados, que persisten en el tiempo. En el presente trabajo se propone una metodología y conjunto de redes neuronales profundas para la predicción de movimiento bursátil a partir de eventos y noticias corporativas. Para ello no solo se considera la contextualización de palabras, sino también sus relaciones y composición semántica, estructura e historia para la predicción del índice S&P 500. En resumen, el presente proyecto obtiene resultados exitosos puesto que sobrepasan a los del estado del arte. Así, el conjunto de modelos neuronales propuestos puede ser usados como apoyo en la decisión de inversión diaria en el índice S&P 500.
22

Desarrollo de un Framework para la identificación del nivel de complejidad de texto para el entrenamiento de chatbots basado en Machine Learning

Matos Rios, Hans 21 March 2022 (has links)
La generación de diálogo implica diseñar un programa para generar una conversación natural, esto requiere desarrollar algoritmos que puedan conversar con un ser humano y otro programa de manera coherente y fluida. Desarrollar una conversación también depende del contexto y conocimiento del interlocutor, lo cual nos lleva a definir la existencia de niveles de complejidad conversacional, la cual se refiere a determinar que tan fácil o difícil de leer es un texto. En este aspecto, especialmente para el idioma español, no existe una herramienta que tenga un módulo propio que le permita clasificar textos en español por su complejidad textual. En el presente trabajo de fin de carrera se realiza el desarrollo de un módulo en el lenguaje de programación Python, el cual funciona como un Framework para identificar la complejidad textual de textos en español usando técnicas de Machine Learning. Para ello, en primer lugar, se implementaron 48 métricas de análisis de complejidad textual basadas en Coh-Metrix usando el lenguaje de programación Python. Dichas métricas convierten textos en español en datos numéricos con los cuales se entrenaron distintos modelos de Machine Learning, con el motivo de obtener el mejor modelo a utilizar con el Framework desarrollado, siendo este capaz de utilizar un modelo personalizado provisto por el usuario. Para ello, se necesitó obtener un corpus de 183 textos en español para realizar dicho entrenamiento, el cual fue obtenido al descargar textos educativos de nivel primaria y secundaria. Por último, se entrenó un chatbot con los textos obtenidos para el corpus, cuyas respuestas generadas fueron analizados con el Framework previamente desarrollado, identificando que el nivel de complejidad de dichas respuestas correspondía al nivel de los textos con los cuales el chatbot fue entrenado. En conclusión, en el presente proyecto de investigación se desarrolla un módulo de Python que funciona como un Framework, el cual es capaz de identificar la complejidad textual de textos en español, ya sea con el mejor modelo de Machine Learning utilizado en el presente proyecto o utilizando uno provisto por el usuario de la herramienta.
23

Modelo computacional basado en imágenes para obtener los índices de habitabilidad de los aspectos psicosociales y psicoespaciales de la ciudad de Chiclayo

Asalde Del Rio, Sandra Cecilia January 2021 (has links)
La planificación urbana ha evolucionado a la par con la tecnología, la ciudad se va convirtiendo en una fusión de lo físico y lo digital. Los datos que se generan diariamente y las plataformas de comunicación existentes pueden ser usados como herramienta de diseño, ya no existe una excusa para no considerar la opinión del poblador dentro de dicho proceso. Los problemas de las ciudades pueden iniciar a remediarse conociendo las percepciones subjetivas de sus habitantes. Esta investigación observa un problema urbano fundamental poco atendido, cuya solución aún tiene un largo camino por recorrer. Para delimitar el estudio, se toma a la ciudad de Chiclayo como ejemplo y se propone la recolección de imágenes y datos de ciertas zonas de la urbe para el desarrollo de un modelo computacional que convierta dichas percepciones en objetivas, de manera que se puedan predecir. A través del procesamiento de imágenes para obtener los objetos que contienen, la definición de los índices de habitabilidad para los aspectos subjetivos, y el aprendizaje automático supervisado de un algoritmo de clasificación; se consigue dicho modelo predictivo. Con una precisión mayor al 60%, y validado por expertos en psicología, sociología, arquitectura y urbanismo; este producto puede ser utilizado para crear herramientas de visualización que apoyen la toma de decisiones de los diseñadores de ciudad, generando así un lugar habitable y agradable para todos.
24

Descubrimiento Automático de Flujos de Aprendizaje de Máquina basado en Gramáticas Probabilı́sticas

Estévez-Velarde, Suilan 02 December 2021 (has links)
El aprendizaje de máquinas ha ganado terreno utilizándose en casi todas las áreas de la vida cotidiana, ayudando a tomar decisiones en las finanzas, la medicina, el comercio y el entretenimiento. El desarrollo continuo de nuevos algoritmos y técnicas de aprendizaje automático, y la amplia gama de herramientas y conjuntos de datos disponibles han traído nuevas oportunidades y desafíos para investigadores y profesionales tanto del mundo académico como de la industria. Seleccionar la mejor estrategia posible para resolver un problema de aprendizaje automático es cada vez más difícil, en parte porque requiere largos tiempos de experimentación y profundos conocimientos técnicos. En este escenario, el campo de investigación Automated Machine Learning (AutoML) ha ganado protagonismo, proponiendo estrategias para automatizar progresivamente tareas usuales durante el desarrollo de aplicaciones de aprendizaje de máquina. Las herramientas de AutoML más comunes permiten seleccionar automáticamente dentro de un conjunto restringido de algoritmos y parámetros la mejor estrategia para cierto conjunto de datos. Sin embargo, los problemas prácticos a menudo requieren combinar y comparar algoritmos heterogéneos implementados con diferentes tecnologías subyacentes. Un ejemplo es el procesamiento del lenguaje natural, un escenario donde varía el espacio de posibles técnicas a aplicar ampliamente entre diferentes tareas, desde el preprocesamiento hasta la representación y clasificación de textos. Realizar AutoML en un escenario heterogéneo como este es complejo porque la solución necesaria podría incluir herramientas y bibliotecas no compatibles entre sí. Esto requeriría que todos los algoritmos acuerden un protocolo común que permita la salida de un algoritmo para ser compartida como entradas a cualquier otro. En esta investigación se diseña e implementa un sistema de AutoML que utiliza técnicas heterogéneas. A diferencia de los enfoques de AutoML existentes, nuestra contribución puede combinar técnicas y algoritmos de diferentes bibliotecas y tecnologías, incluidos algoritmos de aprendizaje de máquina clásicos, extracción de características, herramientas de procesamiento de lenguaje natural y diversas arquitecturas de redes neuronales. Definimos el problema heterogéneo de optimización de AutoML como la búsqueda de la mejor secuencia de algoritmos que transforme datos de entrada específicos en la salida deseada. Esto proporciona un enfoque teórico y práctico novedoso para AutoML. Nuestra propuesta se evalúa experimentalmente en diversos problemas de aprendizaje automático y se compara con enfoques alternativos, lo que demuestra que es competitiva con otras alternativas de AutoML en los puntos de referencia estándar. Además, se puede aplicar a escenarios novedosos, como varias tareas de procesamiento de lenguaje natural, donde las alternativas existentes no se pueden implementar directamente. El sistema está disponible de forma gratuita e incluye compatibilidad incorporada con una gran cantidad de marcos de aprendizaje automático populares, lo que hace que nuestro enfoque sea útil para resolver problemas prácticos con relativa facilidad y esfuerzo. El uso de la herramienta propuesta en esta investigación permite a los investigadores y profesionales desarrollar rápidamente algoritmos de referencia optimizados en diversos problemas de aprendizaje automático. En algunos escenarios, la solución proporcionada por nuestro sistema podría ser suficiente. Sin embargo, los sistemas AutoML no deben intentar reemplazar a los expertos humanos, sino servir como herramientas complementarias que permitan a los investigadores obtener rápidamente mejores prototipos y conocimientos sobre las estrategias más prometedoras en un problema concreto. Las técnicas de AutoML abren las puertas a revolucionar la forma en que se realiza la investigación y el desarrollo del aprendizaje automático en la academia y la industria.
25

Ecosistema para el Descubrimiento de Conocimiento en Lenguaje Natural

Piad-Morffis, Alejandro 16 December 2021 (has links)
La creciente cantidad de información publicada en línea presenta un reto significativo para la comunidad científica. La disponibilidad de estos recursos permite acelerar las investigaciones en múltiples ramas de la ciencia, al conectar resultados de diferentes grupos de investigadores. Sin embargo, el volumen de información producido es imposible de procesar por humanos en su totalidad, por lo que la comunidad científica desperdicia tiempo y recursos en redescubrir los mismos resultados, debido a la falta de comunicación. La aplicación de técnicas de inteligencia artificial permite construir sistemas computacionales que ayuden a los investigadores a buscar, analizar y conectar la información existente en grandes volúmenes de datos. Este proceso se denomina descubrimiento automático de conocimiento y es una rama de investigación con un creciente interés. El dominio de la salud es uno de los escenarios en los que el descubrimiento de conocimiento automático puede producir un mayor impacto en beneficio de la sociedad. La reciente pandemia de COVID-19 es un ejemplo donde la producción de artículos científicos ha superado con creces la capacidad de la comunidad científica para asimilarlos. Para mitigar este fenómeno se han publicado recursos lingüísticos que permitan construir sistemas de descubrimiento automático de conocimiento. Sin embargo, el descubrimiento de conocimiento requiere no solo de recursos lingüísticos, sino que necesita recursos computacionales e infraestructura disponibles para evaluar los resultados sistemáticamente y comparar objetivamente enfoques alternativos. Este trabajo describe un ecosistema que facilita la investigación y el desarrollo en el descubrimiento de conocimiento en el dominio biomédico, específicamente en idioma español, aunque puede ser extendido a otros dominios e idiomas. Con este fin, se desarrollan y comparten varios recursos con la comunidad investigadora, incluido un nuevo modelo de anotación semántica, cuatro corpus con más de 3000 oraciones y 40,000 anotaciones semánticas realizadas manualmente, así como recursos computacionales para construir y evaluar técnicas de descubrimiento automático de conocimiento. Entre estos recursos se ofrecen implementaciones baseline de algoritmos de descubrimiento de conocimiento que sirvan de base para construir soluciones más avanzadas. Además, se define una tarea de investigación con criterios de evaluación objetivos y se configura y mantiene un entorno de evaluación en línea que permite a los investigadores interesados en esta tarea obtener retroalimentación inmediata y comparar sus resultados con el estado del arte. Como caso de estudio, se analizan los resultados de varios equipos de investigadores en cuatro ediciones consecutivas de un desafío competitivo organizado en base a estos recursos. A partir de las experiencias obtenidas durante el proceso de anotación manual se diseña una estrategia de anotación asistida que permite reducir considerablemente el tiempo de anotación humano. El enfoque ayuda a los anotadores humanos seleccionando inteligentemente las oraciones más informativas para anotar y luego pre-anotarlas con algunas entidades y relaciones semánticas altamente precisas. Esta estrategia se evalúa en los corpus desarrollados en esta investigación, y se publica en forma de una herramienta computacional disponible para la comunidad científica. El ecosistema construido proporciona un entorno de aprendizaje y evaluación eficaz para fomentar la investigación en el descubrimiento de conocimientos tanto en documentos de contenido biomédico como en otros dominios. Los corpus anotados pueden ser utilizados para entrenar y evaluar sistemas computacionales de descubrimiento de conocimiento, y compararse con el estado del arte de forma automática. Así mismo, las herramientas computacionales desarrolladas pueden servir para construir nuevos sistemas y para crear nuevos recursos lingüísticos en otros idiomas o dominios. Todos los recursos desarrollados en esta investigación están disponibles públicamente para su uso por la comunidad científica (https://ehealthkd.github.io).
26

Evaluación de modelos de segmentación semántica para el monitoreo de deslizamiento de tierra utilizando imágenes satelitales

Yali Samaniego, Roy Marco 03 April 2024 (has links)
En el ámbito del aprendizaje automático, un desafío persistente es la disponibilidad de datos suficientes, especialmente en tareas de visión por computadora. Este desafío se amplifica cuando se trabaja con sensores remotos, donde las bases de datos etiquetadas para abordar problemas son escasas. Este manuscrito examina críticamente el monitoreo de deslizamientos de tierra en el paisaje peruano y presenta tres contribuciones en esta dirección. La primera contribución expande un conjunto de datos de imágenes satelital es sobre deslizamientos de tierra (Landslide4Sense) proveniente de territorios asiáticos, con 3799 imágenes debidamente etiquetadas. Reconociendo la dinámica geoespacial de Perú, se incrementó este conjunto de datos con 838 escenarios locales. Estas adiciones mantienen congruencia con el conjunto de datos original en términos de atributos y configuración, asegurando replicabilidad y escalabilidad para futuras investigaciones. La segunda evalúa varios modelos de segmentación semántica basados en la arquitectura U-net, reforzada por la función de pérdida de Entropía Cruzada Ponderada + Dice Loss, óptima en tareas de segmentación con conjuntos de datos desequilibrados. Los resultados permiten alcanzar un F1-Score del 75.5% con la arquitectura U-net (vanilla) superando el benchmark de referencia del 71.65%. La última contribución muestra un desarrollado integral para la adquisición de datos, procesamiento y entrenamiento/evaluación de modelos. Dado que este marco tiene el potencial de impulsar una aplicabilidad general de sistemas de segmentación a sistemas de monitoreo de deslizamientos de tierra, y detener un alcance más amplio a la comunidad académica y partes interesadas gubernamentales en Latinoamérica y en todo el mundo.
27

Desarrollo de modelo predictivo de desgaste basado en datos de ensayos según ASTM G-65 utilizando algoritmos de Machine Learning

Cabanillas Flores, Renato 24 January 2023 (has links)
Los ensayos de desgaste según la norma ASTM G-65 son realizados para determinar la resistencia al desgaste abrasivo de bajo esfuerzo de un material mediante su exposición al contacto con arena seca. Estos ensayos permiten la evaluación de recargues duros o hardfacing con la finalidad de encontrar los efectos de los elementos aleantes sobre la microestructura y la resistencia al desgaste. Por su parte, el aprendizaje automático, conocido como Machine Learning, es una técnica del campo de la inteligencia artificial que busca desarrollar modelos computacionales con la capacidad de realizar tareas de clasificación y regresión. La metodología utilizada para realizar el entrenamiento, y posterior evaluación de los modelos obtenidos, consiste en la digitalización de los registros de ensayos de desgaste ejecutados por la American Welding Society, el análisis del comportamiento de la pérdida de masa en función del porcentaje de la concentración de los elementos presentes en el depósito del recargue duro y el desarrollo de los siguientes algoritmos de modelos de aprendizaje automático: k-vecinos cercanos (KNN), red neuronal artificial (ANN) y máquina de aprendizaje extremo (ELM). Posterior al entrenamiento, se emplearon los modelos ya entrenados para calcular la pérdida de masa en probetas previamente ensayadas en el Laboratorio de Materiales de la Pontificia Universidad Católica del Perú (PUCP) y así evaluar la efectividad de los modelos en la sección de resultados. Para los modelos entrenados se identificaron las variantes con mejor efectividad en la predicción de pérdida de masa, las cuales fueron la red neuronal artificial de 3 capas entrenada en 1000 épocas, el modelo de k-vecinos cercanos con 6 vecinos y la máquina de aprendizaje extremo con 10,000 neuronas. Para la comparación con datos de ensayos realizado sen la PUCP se obtuvo un error medio absoluto de 0.086 g para ANN, 0.726 g para KNN 0.853 g para ELM; en contraste con los valores de 0.228 g, 0.321 g y 0.666 g obtenidos para los ensayos realizado por la AWS, respectivamente. De entre los 3 modelos entrenados, se identifica que la red neuronal artificial congrega la mayor cantidad de puntos cercanos a la igualdad entre el valor real de pérdida de masa y la predicción calculada mediante el modelo. Se concluye que la ANN puede predecir con éxito la pérdida de masa en función de la composición química del depósito y su dureza, alcanzando una precisión del 85.75%. Por otro lado, la ELM requiere elevados recursos computacionales para entrenarse por encima de las 500,000 neuronas, así como un análisis más profundo para evitar el sobreajuste del modelo a los datos de entrenamiento. El algoritmo KNN no calcula exitosamente la masa perdida en un ensayo de desgaste debido a que entrega valores de promedios locales para datos que no se estructuran de forma ordenada. Finalmente, los resultados alcanzados brindan validez a la aplicación de técnicas de aprendizaje automático para encontrar la pérdida de masa en ensayos de desgaste.
28

Clasificación del territorio peruano de acuerdo con su potencial de agua subterránea utilizando algoritmos de aprendizaje automatizado

Portocarrero Rodríguez, César Augusto 16 December 2020 (has links)
El agravamiento del estrés hídrico tanto en el sector urbano como en el rural motiva cada vez más a los tomadores de decisión a impulsar la explotación sostenible de este recurso. Para ello, se requiere conocer con certeza los emplazamientos con un mayor potencial de explotación. Para hacer frente a este problema sin recurrir a perforaciones directas, la presente investigación tiene como objetivo principal explorar el potencial hidrológico subterráneo del Perú correspondiente a acuíferos de baja profundidad mediante la aplicación de modelos de clasificación de bosques aleatorios y redes neuronales, dos algoritmos de aprendizaje automatizado. Esta rama de la inteligencia artificial permite generar modelos multidimensionales y con variables complejas sin efectuar presuposiciones estadísticas. Para explicar el potencial de agua subterránea, se recurren a variables topográficas, hidrológicas, geológicas, pedológicas y ambientales que influyen en diferente medida en la conductividad hidráulica subterránea y en la tasa de recarga de los acuíferos. Los resultados obtenidos indican que el mejor desempeño equiparable al estado del arte se obtiene para el modelo de bosques aleatorios (exactitud=0.77, puntaje F1=0.73, AUC=0.88) y que la construcción de modelos especializados en una región dada permite mejorar la capacidad de los modelos al reducir la varianza de los datos. Las variables más importantes en los modelos fueron: aspecto, densidad de drenaje, elevación, NDWI y precipitación. La principal limitación identificada en el desempeño de los modelos es la escasa cantidad y distribución irregular de los pozos de caudal conocido en el Perú, factor que parcializa el modelo hacia la costa, la región mejor documentada. El presente estudio sirve como marco referencial para la construcción de futuros modelos de aprendizaje automatizado una vez se amplíe el inventario público de pozos de agua subterránea o en caso privados introduzcan su propio inventario. El código empleado para el procesamiento de variables geoespaciales se encuentra en https://code.earthengine.google.com/fe63cd6184b009824ed3c843fdc5544d. El código utilizado para la construcción de modelos se encuentra registrado en Github en https://github.com/cesport/Tesis. Aplicaciones para visualizar los resultados de manera interactiva están disponibles para computadoras en https://cesarportocarrero.users.earthengine.app/view/gwp-peru y dispositivos móviles en https://cesarportocarrero.users.earthengine.app/view/gwp-peru-movil.
29

Aplicación de técnicas de Machine Learning e imágenes de radar para la detección temprana de invasiones en zonas de alto riesgo de desastres

Jaimes Cucho, Javier Alonso 22 November 2023 (has links)
La presente tesis aborda la problemática de las invasiones de terrenos por grupos vulnerables. En la mayoría de casos estos grupos se asientan en zonas de alto riesgo de desastres debido a fenómenos naturales. Lo expuesto previamente se evidenció en los procesos migratorios del siglo pasado y en invasiones más recientes donde grupos de personas vulnerables se asentaron en zonas costeras periféricas a las ciudades. Estas zonas según los distintos mapas elaborados por el SIGRID y CISMID tienen mayor probabilidad de ocurrencia de desastres. Por lo tanto, esta investigación tiene por finalidad identificar, de forma temprana y remota, la creciente tasa de asentamientos informales en zonas de alto riesgo de desastres. Para tal propósito se plantea una metodología que permita detectar estructuras y patrones de asentamientos informales. Para la detección de invasiones se emplean diversas técnicas de machine learning empleando imágenes satelitales de radar, de libre acceso, de media resolución (10m) y técnica de postprocesamiento para la mejora en el desempeño de la predicción. Para la evaluación de la metodología planteada se empleó como caso de estudio la invasión en Lomo de Corvina, ocurrido en abril del 2021. Para las áreas invadidas se obtuvo valores promedio de precision del 39%, lo cual es indicador que los algoritmos sobrestiman las áreas invadidas debido a las distorsiones complejas y ruido en las imágenes de radar, y recall del 85%, lo que indica que los algoritmos identifican correctamente un alto porcentaje del área invadida. Por lo tanto, se puede emplear esta metodología para la detección temprana de áreas invadidas con características similares a las estudiadas. Se lograrán mejores resultados si las invasiones son repentinas, de gran extensión y están ubicadas en zonas poco accidentadas y sin cubierta vegetal.
30

Aprendizaje automático no supervisado en segmentadores morfológicos para una lengua de escasos recursos caso de estudio: SHIWILU

Asmat Ramirez, Evelyn Fiorella 27 June 2023 (has links)
El Shiwilu es considerada ‘seriamente en peligro’ porque es hablada principalmente por adultos mayores de forma parcial, poco frecuente y en contextos restringidos; además, no continúa siendo transmitida a nuevas generaciones. Este tipo de lenguas necesitan pasar por un proceso de revitalización (fortalecimiento) para garantizar que no se extingan y así fomentar el interés de sus hablantes. Además, su documentación es muy escasa debido a los pocos estudios lingüísticos realizados. A fin de elevar su status, se sugiere la creación de recursos y tecnología de corte lingüístico, como corpus monolingüe y bilingüe, diccionarios, reconocimiento de categorías gramaticales, analizadores morfológicos, etc. Sin embargo, la mayoría de las lenguas existentes no se beneficia con alguno de estos recursos y/o tecnologías, y por ello son consideradas como lenguas de escasos recursos. Debido a la falta de inversión, se requiere un enfoque en el que se busquen soluciones robustas a un bajo costo a través de herramientas independientes de la lengua, modelos de desarrollo de código abierto o algoritmos de aprendizaje automático no supervisado. Bajo este contexto, se identifica como problema central el desconocimiento de un enfoque adecuado para la segmentación morfológica de una lengua de escasos recursos; y para ello, el presente proyecto propone realizar una segmentación morfológica automática no supervisada en una lengua con estas características a partir de la identificación del tipo de enfoque, monolingüe o multilingüe, que ofrece mejores resultados en esta tarea.

Page generated in 0.1256 seconds