• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 39
  • Tagged with
  • 117
  • 117
  • 58
  • 55
  • 49
  • 46
  • 44
  • 44
  • 44
  • 44
  • 44
  • 37
  • 32
  • 27
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Interactivity, Adaptation and Multimodality in Neural Sequence-to-sequence Learning

Peris Abril, Álvaro 07 January 2020 (has links)
[ES] El problema conocido como de secuencia a secuencia consiste en transformar una secuencia de entrada en una secuencia de salida. Bajo esta perspectiva se puede atacar una amplia cantidad de problemas, entre los cuales destacan la traducción automática o la descripción automática de objetos multimedia. La aplicación de redes neuronales profundas ha revolucionado esta disciplina, y se han logrado avances notables. Pero los sistemas automáticos todavía producen predicciones que distan mucho de ser perfectas. Para obtener predicciones de gran calidad, los sistemas automáticos se utilizan bajo la supervisión de un humano, quien corrige los errores. Esta tesis se centra principalmente en el problema de la traducción del lenguaje natural, usando modelos enteramente neuronales. Nuestro objetivo es desarrollar sistemas de traducción neuronal más eficientes. asentándonos sobre dos pilares fundamentales: cómo utilizar el sistema de una forma más eficiente y cómo aprovechar datos generados durante la fase de explotación del mismo. En el primer caso, aplicamos el marco teórico conocido como predicción interactiva a la traducción automática neuronal. Este proceso consiste en integrar usuario y sistema en un proceso de corrección cooperativo, con el objetivo de reducir el esfuerzo humano empleado en obtener traducciones de alta calidad. Desarrollamos distintos protocolos de interacción para dicha tecnología, aplicando interacción basada en prefijos y en segmentos, implementados modificando el proceso de búsqueda del sistema. Además, ideamos mecanismos para obtener una interacción con el sistema más precisa, manteniendo la velocidad de generación del mismo. Llevamos a cabo una extensa experimentación, que muestra el potencial de estas técnicas: superamos el estado del arte anterior por un gran margen y observamos que nuestros sistemas reaccionan mejor a las interacciones humanas. A continuación, estudiamos cómo mejorar un sistema neuronal mediante los datos generados como subproducto de este proceso de corrección. Para ello, nos basamos en dos paradigmas del aprendizaje automático: el aprendizaje muestra a muestra y el aprendizaje activo. En el primer caso, el sistema se actualiza inmediatamente después de que el usuario corrige una frase, aprendiendo de una manera continua a partir de correcciones, evitando cometer errores previos y especializándose en un usuario o dominio concretos. Evaluamos estos sistemas en una gran cantidad de situaciones y dominios diferentes, que demuestran el potencial que tienen los sistemas adaptativos. También llevamos a cabo una evaluación humana, con traductores profesionales. Éstos quedaron muy satisfechos con el sistema adaptativo. Además, fueron más eficientes cuando lo usaron, comparados con un sistema estático. El segundo paradigma lo aplicamos en un escenario en el que se deban traducir grandes cantidades de frases, siendo inviable la supervisión de todas. El sistema selecciona aquellas muestras que vale la pena supervisar, traduciendo el resto automáticamente. Aplicando este protocolo, redujimos de aproximadamente un cuarto el esfuerzo humano necesario para llegar a cierta calidad de traducción. Finalmente, atacamos el complejo problema de la descripción de objetos multimedia. Este problema consiste en describir en lenguaje natural un objeto visual, una imagen o un vídeo. Comenzamos con la tarea de descripción de vídeos pertenecientes a un dominio general. A continuación, nos movemos a un caso más específico: la descripción de eventos a partir de imágenes egocéntricas, capturadas a lo largo de un día. Buscamos extraer relaciones entre eventos para generar descripciones más informadas, desarrollando un sistema capaz de analizar un mayor contexto. El modelo con contexto extendido genera descripciones de mayor calidad que un modelo básico. Por último, aplicamos la predicción interactiva a estas tareas multimedia, disminuyendo el esfuerzo necesa / [CA] El problema conegut com a de seqüència a seqüència consisteix en transformar una seqüència d'entrada en una seqüència d'eixida. Seguint aquesta perspectiva, es pot atacar una àmplia quantitat de problemes, entre els quals destaquen la traducció automàtica, el reconeixement automàtic de la parla o la descripció automàtica d'objectes multimèdia. L'aplicació de xarxes neuronals profundes ha revolucionat aquesta disciplina, i s'han aconseguit progressos notables. Però els sistemes automàtics encara produeixen prediccions que disten molt de ser perfectes. Per a obtindre prediccions de gran qualitat, els sistemes automàtics són utilitzats amb la supervisió d'un humà, qui corregeix els errors. Aquesta tesi se centra principalment en el problema de la traducció de llenguatge natural, el qual s'ataca emprant models enterament neuronals. El nostre objectiu principal és desenvolupar sistemes més eficients. Per a aquesta tasca, les nostres contribucions s'assenten sobre dos pilars fonamentals: com utilitzar el sistema d'una manera més eficient i com aprofitar dades generades durant la fase d'explotació d'aquest. En el primer cas, apliquem el marc teòric conegut com a predicció interactiva a la traducció automàtica neuronal. Aquest procés consisteix en integrar usuari i sistema en un procés de correcció cooperatiu, amb l'objectiu de reduir l'esforç humà emprat per obtindre traduccions d'alta qualitat. Desenvolupem diferents protocols d'interacció per a aquesta tecnologia, aplicant interacció basada en prefixos i en segments, implementats modificant el procés de cerca del sistema. A més a més, busquem mecanismes per a obtindre una interacció amb el sistema més precisa, mantenint la velocitat de generació. Duem a terme una extensa experimentació, que mostra el potencial d'aquestes tècniques: superem l'estat de l'art anterior per un gran marge i observem que els nostres sistemes reaccionen millor a les interacciones humanes. A continuació, estudiem com millorar un sistema neuronal mitjançant les dades generades com a subproducte d'aquest procés de correcció. Per a això, ens basem en dos paradigmes de l'aprenentatge automàtic: l'aprenentatge mostra a mostra i l'aprenentatge actiu. En el primer cas, el sistema s'actualitza immediatament després que l'usuari corregeix una frase. Per tant, el sistema aprén d'una manera contínua a partir de correccions, evitant cometre errors previs i especialitzant-se en un usuari o domini concrets. Avaluem aquests sistemes en una gran quantitat de situacions i per a dominis diferents, que demostren el potencial que tenen els sistemes adaptatius. També duem a terme una avaluació amb traductors professionals, qui varen quedar molt satisfets amb el sistema adaptatiu. A més, van ser més eficients quan ho van usar, si ho comparem amb el sistema estàtic. Pel que fa al segon paradigma, l'apliquem per a l'escenari en el qual han de traduir-se grans quantitats de frases, i la supervisió de totes elles és inviable. En aquest cas, el sistema selecciona les mostres que paga la pena supervisar, traduint la resta automàticament. Aplicant aquest protocol, reduírem en aproximadament un quart l'esforç necessari per a arribar a certa qualitat de traducció. Finalment, ataquem el complex problema de la descripció d'objectes multimèdia. Aquest problema consisteix en descriure, en llenguatge natural, un objecte visual, una imatge o un vídeo. Comencem amb la tasca de descripció de vídeos d'un domini general. A continuació, ens movem a un cas més específic: la descripció d''esdeveniments a partir d'imatges egocèntriques, capturades al llarg d'un dia. Busquem extraure relacions entre ells per a generar descripcions més informades, desenvolupant un sistema capaç d'analitzar un major context. El model amb context estés genera descripcions de major qualitat que el model bàsic. Finalment, apliquem la predicció interactiva a aquestes tasques multimèdia, di / [EN] The sequence-to-sequence problem consists in transforming an input sequence into an output sequence. A variety of problems can be posed in these terms, including machine translation, speech recognition or multimedia captioning. In the last years, the application of deep neural networks has revolutionized these fields, achieving impressive advances. However and despite the improvements, the output of the automatic systems is still far to be perfect. For achieving high-quality predictions, fully-automatic systems require to be supervised by a human agent, who corrects the errors. This is a common procedure in the translation industry. This thesis is mainly framed into the machine translation problem, tackled using fully neural systems. Our main objective is to develop more efficient neural machine translation systems, that allow for a more productive usage and deployment of the technology. To this end, we base our contributions on two main cornerstones: how to better use of the system and how to better leverage the data generated along its usage. First, we apply the so-called interactive-predictive framework to neural machine translation. This embeds the human agent and the system into a cooperative correction process, that seeks to reduce the human effort spent for obtaining high-quality translations. We develop different interactive protocols for the neural machine translation technology, namely, a prefix-based and a segment-based protocols. They are implemented by modifying the search space of the model. Moreover, we introduce mechanisms for achieving a fine-grained interaction while maintaining the decoding speed of the system. We carried out a wide experimentation that shows the potential of our contributions. The previous state of the art is overcame by a large margin and the current systems are able to react better to the human interactions. Next, we study how to improve a neural system using the data generated as a byproduct of this correction process. To this end, we rely on two main learning paradigms: online and active learning. Under the first one, the system is updated on the fly, as soon as a sentence is corrected. Hence, the system is continuously learning from the corrections, avoiding previous errors and specializing towards a given user or domain. A large experimentation stressed the adaptive systems under different conditions and domains, demonstrating the capabilities of adaptive systems. Moreover, we also carried out a human evaluation of the system, involving professional users. They were very pleased with the adaptive system, and worked more efficiently using it. The second paradigm, active learning, is devised for the translation of huge amounts of data, that are infeasible to being completely supervised. In this scenario, the system selects samples that are worth to be supervised, and leaves the rest automatically translated. Applying this framework, we obtained reductions of approximately a quarter of the effort required for reaching a desired translation quality. The neural approach also obtained large improvements compared with previous translation technologies. Finally, we address another challenging problem: visual captioning. It consists in generating a description in natural language from a visual object, namely an image or a video. We follow the sequence-to-sequence framework, under a a multimodal perspective. We start by tackling the task of generating captions of videos from a general domain. Next, we move on to a more specific case: describing events from egocentric images, acquired along the day. Since these events are consecutive, we aim to extract inter-eventual relationships, for generating more informed captions. The context-aware model improved the generation quality with respect to a regular one. As final point, we apply the intractive-predictive protocol to these multimodal captioning systems, reducing the effort required for correcting the outputs. / Section 5.4 describes an user evaluation of an adaptive translation system. This was done in collaboration with Miguel Domingo and the company Pangeanic, with funding from the Spanish Center for Technological and Industrial Development (Centro para el Desarrollo Tecnológico Industrial). [...] Most of Chapter 6 is the result of a collaboration with Marc Bolaños, supervised by Prof. Petia Radeva, from Universitat de Barcelona/CVC. This collaboration was supported by the R-MIPRCV network, under grant TIN2014-54728-REDC. / Peris Abril, Á. (2019). Interactivity, Adaptation and Multimodality in Neural Sequence-to-sequence Learning [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/134058 / TESIS
72

Optimización del proceso de gestión de flota para una empresa de transporte de carga por carretera usando Machine Learning, BI, GPS y SMS Gateway / Optimization of the fleet management process for a trucking company using Machine Learning, BI, GPS and SMS Gateway

Nuñez Velarde, Kenyi Guillermo, Pacheco Chávez, Philipp Gil 31 August 2021 (has links)
El presente trabajo de tesis tiene como objetivo presentar una solución de optimización al proceso “Gestión de flota” de una empresa dedicada al transporte de carga por carretera de mercancías en general. Para la arquitectura empresarial se utilizó el framework Zachman, que permitió realizar el análisis del negocio, su entorno, estructura y procesos, bajo la perspectiva del negocio como caja negra que necesita descifrarse. Lo cual permitió que se comprenda el propósito y los objetivos para la cual fue creado el negocio. Adicionalmente, se utilizó TOGAF y ADM, del resultado del análisis se observa que el macroproceso de “Gestión de Flota”, es uno de los procesos operativos de vital importancia para el negocio, pues es donde se administra los recursos operativos del negocio, también, es donde se evidenciará la problemática que será motivo de estudio, análisis y planteamiento de solución. Por otro lado, se usó la Guía PMBOK, para poder gestionar el desarrollo del proyecto, determinando el alcance de la investigación, así como, el análisis del negocio, la definición de la arquitectura empresarial, el análisis de la problemática, la ingeniería de los procesos, la propuesta solución, arquitectura de solución utilizando tendencias tecnológicas como GPS, SMS Gateway, Machine Learning y BI, por último, se diseñará el prototipado de la solución y arquitectura propuesta. Asimismo, se utilizará la gestión de riesgos para poder mitigar cualquier incidencia. / The objective of this thesis work is to present an optimization solution to the "Fleet Management" process of a company dedicated to the road freight transport of goods in general. For the business architecture, the Zachman framework was used, which allowed the analysis of the business, its environment, structure and processes, from the perspective of the business as a black box that needs to be deciphered. Which allowed the purpose and objectives for which the business was created to be understood. Additionally, we use TOGAF and ADM, from the result of the analysis it is observed that the macro-process of "Fleet Management" is one of the operational processes of vital importance for the business, since it is where the operational resources of the business are managed, it is also where the problem that will be the subject of study, analysis and solution proposal will be evidenced. On the other hand, the PMBOK Guide was used to manage the development of the project, determining the scope of the research, as well as the business analysis, the definition of the business architecture, the analysis of the problem, the engineering of the processes, the proposed solution, solution architecture using technological trends such as GPS, SMS Gateway, Machine Learning and BI, finally, the prototyping of the proposed solution and architecture will be designed. Likewise, risk management will be used to mitigate any incident. / Tesis
73

Sistema inteligente de detección de fraudes basado en un algoritmo con random forest para reducir los tiempos de evaluación de los siniestros del área de indemnizaciones en una empresa aseguradora a nivel mundial con sede en Perú / Intelligent fraud detection system based on an algorithm with random forest to reduce the evaluation times of claims in the compensation area in a worldwide insurance company based in Peru

Arangüena Proaño, Rocio Karin, Orellana Peñafiel, Miguel Angel 23 August 2021 (has links)
La presente tesis tiene como objeto de estudio una empresa internacional de seguros y propone la creación de un software que permita por medio de inteligencia artificial, y a través de machine learning, la evaluación de siniestros de los asegurados de la compañía. Actualmente la empresa tiene retrasos en la evaluación de siniestros por la falta de mano de obra calificada y con experiencia, además del incremento de solicitudes de indemnización a raíz de la pandemia del Covid-19. También, las regulaciones de la Superintendencia de banca, seguros y AFP obligan a las empresas aseguradoras a responder a los siniestros en un plazo de 30 días calendario. El evaluar el siniestro usando inteligencia artificial ayudará a la empresa a responder rápidamente al asegurado y así cumplir con las regulaciones del estado y brindar una experiencia grata con la compañía aseguradora. La propuesta de solución de esta presente tesis disminuirá los tiempos de respuesta ante siniestros, podrá detectar fraudes durante la evaluación y con ello permitirá disminuir los costos al necesitar menos personal para atender las solicitudes de indemnización de siniestro. / The present thesis has as object of study an international insurance company and proposes the creation of a software that allows by means of artificial intelligence, and through machine learning, the evaluation of insurance claims of the insured of the company. Currently the company has delays in the assessment of claim due to the lack of qualified and experienced workforce, in addition to the increase in requests for compensation because of the Covid-19 pandemic. Also, the regulations of the Superintendency of banking, insurance and AFP oblige insurance companies to respond to claims within 30 calendar days. Assessing the claim using artificial intelligence will help the company respond quickly to the insured and thus comply with state regulations and provide a pleasant experience. The solution proposal of this present thesis will reduce the response time to claims, it will be able to detect fraud during the evaluation and thus it will allow to reduce costs by requiring less personnel to attend requests of compensation claims. / Tesis
74

Desarrollo de una aplicación de análisis del mercado, basado en el procesamiento del lenguaje natural de la red social Twitter, con Machine Learning para predicción de éxito del lanzamiento de un nuevo producto / Development of an application of Market Analysis, based on the natural language processing of Social Networks, using Machine learning to predict the success of a new Product Launch

Fuentes Dávila Otani, Rommy Cecilia, Fuentes Dávila Otani, Karina Paola 10 March 2021 (has links)
El presente trabajo contempla el proceso de lanzamiento de los nuevos productos ofrecidos por la empresa Natural Corporation, quien se dedica a la importación de productos japoneses fabricados por los países de JAPÓN y CHINA. El objetivo general del proyecto desarrollar una aplicación móvil para el análisis del mercado para el lanzamiento de los nuevos productos y/o servicios, basado en el procesamiento del lenguaje natural de la red social Twitter con Aprendizaje autónomo para la toma de decisiones publicitarias. / This work explores the process of launching a new product offered by the company “Natural Corporation”, which core business is to import Japanese products manufactured by countries such as: JAPAN and CHINA. The general objective of the project is to develop a mobile application for market analysis of new products and / or services launch, based on the natural language processing of Twitter’s social network with Machine learning to apply accurate advertising decisions. / Tesis
75

Sistema inteligente para la predicción del precio diario de las acciones mineras en la Bolsa de Valores de New York usando un modelo híbrido de redes neuronales y máquina de soporte vectorial de regresión

Huillca Espillico, Jessica Gabriela, Quispe Álvarez, Renzo Miguel January 2019 (has links)
Predecir el precio de una acción es un tema muy importante en el mundo financiero, debido a que mediante ella se puede generar una estrategia de inversión y obtener muchas ganancias. El comportamiento de los precios de las acciones sigue una distribución muy compleja, siendo afectadas por factores internos de las compañías, tales como decisiones gerenciales, y también por factores externos, como el estado del mercado en un momento dado. El sector minero es considerado uno de los sectores más volátiles dentro de la bolsa, y frecuentemente atrae a los inversionistas más arriesgados que desean obtener rápidas ganancias; sin embargo no se han encontrado estudios que se hayan enfocado en este sector. La precisión de los modelos de machine learning dependen de la correcta elección de las variables y técnicas a utilizar, así como también del pre procesamiento que se realice a la data antes de ser ingresada al modelo, es por esto que en el presente trabajo se realizó una encuesta a expertos de inversión en la bolsa de valores sobre las variables influyentes en el comportamiento de una acción minera, producto de ello se identificaron variables como el precio de los metales, precio de los índices y precio del dólar; las cuales, junto a las variables fundamentales y técnicas, participaron en la selección de variables mediante el cálculo del coeficiente de correlación de Pearson en cada una de ellas. Las variables resultantes fueron ingresadas posteriormente al modelo híbrido propuesto, donde las salidas de cada una de las técnicas de machine learning utilizadas (redes neuronales artificiales, máquinas de soporte vectorial para regresión y red neuronal de base radial) formaban parte de la entrada hacia una red neuronal artificial, considerada como técnica principal debido a que alcanzaba los mejores resultados en la fase experimental. Para validar el sistema se consideró el dataset de las empresas Buenaventura, Southern Copper, Fortuna Silver Mines, Barrick Gold Corporation y BHP Billiton Limited; que alcanzaron un MAPE de 1.666, 1.470, 1.375, 2.567 y 0.998 respectivamente, y un promedio de error de 1.615%, lo que demuestra una gran mejora con respecto al 5.4% de error obtenido en el sector más cercano (petrolero). / Tesis
76

Design of a Machine Learning-based Approach for Fragment Retrieval on Models

Marcén Terraza, Ana Cristina 10 January 2021 (has links)
[ES] El aprendizaje automático (ML por sus siglas en inglés) es conocido como la rama de la inteligencia artificial que reúne algoritmos estadísticos, probabilísticos y de optimización, que aprenden empíricamente. ML puede aprovechar el conocimiento y la experiencia que se han generado durante años en las empresas para realizar automáticamente diferentes procesos. Por lo tanto, ML se ha aplicado a diversas áreas de investigación, que estudian desde la medicina hasta la ingeniería del software. De hecho, en el campo de la ingeniería del software, el mantenimiento y la evolución de un sistema abarca hasta un 80% de la vida útil del sistema. Las empresas, que se han dedicado al desarrollo de sistemas software durante muchos años, han acumulado grandes cantidades de conocimiento y experiencia. Por lo tanto, ML resulta una solución atractiva para reducir sus costos de mantenimiento aprovechando los recursos acumulados. Específicamente, la Recuperación de Enlaces de Trazabilidad, la Localización de Errores y la Ubicación de Características se encuentran entre las tareas más comunes y relevantes para realizar el mantenimiento de productos software. Para abordar estas tareas, los investigadores han propuesto diferentes enfoques. Sin embargo, la mayoría de las investigaciones se centran en métodos tradicionales, como la indexación semántica latente, que no explota los recursos recopilados. Además, la mayoría de las investigaciones se enfocan en el código, descuidando otros artefactos de software como son los modelos. En esta tesis, presentamos un enfoque basado en ML para la recuperación de fragmentos en modelos (FRAME). El objetivo de este enfoque es recuperar el fragmento del modelo que realiza mejor una consulta específica. Esto permite a los ingenieros recuperar el fragmento que necesita ser trazado, reparado o ubicado para el mantenimiento del software. Específicamente, FRAME combina la computación evolutiva y las técnicas ML. En FRAME, un algoritmo evolutivo es guiado por ML para extraer de manera eficaz distintos fragmentos de un modelo. Estos fragmentos son posteriormente evaluados mediante técnicas ML. Para aprender a evaluarlos, las técnicas ML aprovechan el conocimiento (fragmentos recuperados de modelos) y la experiencia que las empresas han generado durante años. Basándose en lo aprendido, las técnicas ML determinan qué fragmento del modelo realiza mejor una consulta. Sin embargo, la mayoría de las técnicas ML no pueden entender los fragmentos de los modelos. Por lo tanto, antes de aplicar las técnicas ML, el enfoque propuesto codifica los fragmentos a través de una codificación ontológica y evolutiva. En resumen, FRAME está diseñado para extraer fragmentos de un modelo, codificarlos y evaluar cuál realiza mejor una consulta específica. El enfoque ha sido evaluado a partir de un caso real proporcionado por nuestro socio industrial (CAF, un proveedor internacional de soluciones ferroviarias). Además, sus resultados han sido comparados con los resultados de los enfoques más comunes y recientes. Los resultados muestran que FRAME obtuvo los mejores resultados para la mayoría de los indicadores de rendimiento, proporcionando un valor medio de precisión igual a 59.91%, un valor medio de exhaustividad igual a 78.95%, una valor-F medio igual a 62.50% y un MCC (Coeficiente de Correlación Matthews) medio igual a 0.64. Aprovechando los fragmentos recuperados de los modelos, FRAME es menos sensible al conocimiento tácito y al desajuste de vocabulario que los enfoques basados en información semántica. Sin embargo, FRAME está limitado por la disponibilidad de fragmentos recuperados para llevar a cabo el aprendizaje automático. Esta tesis presenta una discusión más amplia de estos aspectos así como el análisis estadístico de los resultados, que evalúa la magnitud de la mejora en comparación con los otros enfoques. / [CAT] L'aprenentatge automàtic (ML per les seues sigles en anglés) és conegut com la branca de la intel·ligència artificial que reuneix algorismes estadístics, probabilístics i d'optimització, que aprenen empíricament. ML pot aprofitar el coneixement i l'experiència que s'han generat durant anys en les empreses per a realitzar automàticament diferents processos. Per tant, ML s'ha aplicat a diverses àrees d'investigació, que estudien des de la medicina fins a l'enginyeria del programari. De fet, en el camp de l'enginyeria del programari, el manteniment i l'evolució d'un sistema abasta fins a un 80% de la vida útil del sistema. Les empreses, que s'han dedicat al desenvolupament de sistemes programari durant molts anys, han acumulat grans quantitats de coneixement i experiència. Per tant, ML resulta una solució atractiva per a reduir els seus costos de manteniment aprofitant els recursos acumulats. Específicament, la Recuperació d'Enllaços de Traçabilitat, la Localització d'Errors i la Ubicació de Característiques es troben entre les tasques més comunes i rellevants per a realitzar el manteniment de productes programari. Per a abordar aquestes tasques, els investigadors han proposat diferents enfocaments. No obstant això, la majoria de les investigacions se centren en mètodes tradicionals, com la indexació semàntica latent, que no explota els recursos recopilats. A més, la majoria de les investigacions s'enfoquen en el codi, descurant altres artefactes de programari com són els models. En aquesta tesi, presentem un enfocament basat en ML per a la recuperació de fragments en models (FRAME). L'objectiu d'aquest enfocament és recuperar el fragment del model que realitza millor una consulta específica. Això permet als enginyers recuperar el fragment que necessita ser traçat, reparat o situat per al manteniment del programari. Específicament, FRAME combina la computació evolutiva i les tècniques ML. En FRAME, un algorisme evolutiu és guiat per ML per a extraure de manera eficaç diferents fragments d'un model. Aquests fragments són posteriorment avaluats mitjançant tècniques ML. Per a aprendre a avaluar-los, les tècniques ML aprofiten el coneixement (fragments recuperats de models) i l'experiència que les empreses han generat durant anys. Basant-se en l'aprés, les tècniques ML determinen quin fragment del model realitza millor una consulta. No obstant això, la majoria de les tècniques ML no poden entendre els fragments dels models. Per tant, abans d'aplicar les tècniques ML, l'enfocament proposat codifica els fragments a través d'una codificació ontològica i evolutiva. En resum, FRAME està dissenyat per a extraure fragments d'un model, codificar-los i avaluar quin realitza millor una consulta específica. L'enfocament ha sigut avaluat a partir d'un cas real proporcionat pel nostre soci industrial (CAF, un proveïdor internacional de solucions ferroviàries). A més, els seus resultats han sigut comparats amb els resultats dels enfocaments més comuns i recents. Els resultats mostren que FRAME va obtindre els millors resultats per a la majoria dels indicadors de rendiment, proporcionant un valor mitjà de precisió igual a 59.91%, un valor mitjà d'exhaustivitat igual a 78.95%, una valor-F mig igual a 62.50% i un MCC (Coeficient de Correlació Matthews) mig igual a 0.64. Aprofitant els fragments recuperats dels models, FRAME és menys sensible al coneixement tàcit i al desajustament de vocabulari que els enfocaments basats en informació semàntica. No obstant això, FRAME està limitat per la disponibilitat de fragments recuperats per a dur a terme l'aprenentatge automàtic. Aquesta tesi presenta una discussió més àmplia d'aquests aspectes així com l'anàlisi estadística dels resultats, que avalua la magnitud de la millora en comparació amb els altres enfocaments. / [EN] Machine Learning (ML) is known as the branch of artificial intelligence that gathers statistical, probabilistic, and optimization algorithms, which learn empirically. ML can exploit the knowledge and the experience that have been generated for years to automatically perform different processes. Therefore, ML has been applied to a wide range of research areas, from medicine to software engineering. In fact, in software engineering field, up to an 80% of a system's lifetime is spent on the maintenance and evolution of the system. The companies, that have been developing these software systems for a long time, have gathered a huge amount of knowledge and experience. Therefore, ML is an attractive solution to reduce their maintenance costs exploiting the gathered resources. Specifically, Traceability Link Recovery, Bug Localization, and Feature Location are amongst the most common and relevant tasks when maintaining software products. To tackle these tasks, researchers have proposed a number of approaches. However, most research focus on traditional methods, such as Latent Semantic Indexing, which does not exploit the gathered resources. Moreover, most research targets code, neglecting other software artifacts such as models. In this dissertation, we present an ML-based approach for fragment retrieval on models (FRAME). The goal of this approach is to retrieve the model fragment which better realizes a specific query in a model. This allows engineers to retrieve the model fragment, which must be traced, fixed, or located for software maintenance. Specifically, the FRAME approach combines evolutionary computation and ML techniques. In the FRAME approach, an evolutionary algorithm is guided by ML to effectively extract model fragments from a model. These model fragments are then assessed through ML techniques. To learn how to assess them, ML techniques takes advantage of the companies' knowledge (retrieved model fragments) and experience. Then, based on what was learned, ML techniques determine which model fragment better realizes a query. However, model fragments are not understandable for most ML techniques. Therefore, the proposed approach encodes the model fragments through an ontological evolutionary encoding. In short, the FRAME approach is designed to extract model fragments, encode them, and assess which one better realizes a specific query. The approach has been evaluated in our industrial partner (CAF, an international provider of railway solutions) and compared to the most common and recent approaches. The results show that the FRAME approach achieved the best results for most performance indicators, providing a mean precision value of 59.91%, a recall value of 78.95%, a combined F-measure of 62.50%, and a MCC (Matthews correlation coefficient) value of 0.64. Leveraging retrieved model fragments, the FRAME approach is less sensitive to tacit knowledge and vocabulary mismatch than the approaches based on semantic information. However, the approach is limited by the availability of the retrieved model fragments to perform the learning. These aspects are further discussed, after the statistical analysis of the results, which assesses the magnitude of the improvement in comparison to the other approaches. / Marcén Terraza, AC. (2020). Design of a Machine Learning-based Approach for Fragment Retrieval on Models [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/158617 / TESIS
77

Aplicación de Data Science para el análisis de una campaña de respuesta directa televisiva de UNICEF Perú

Olivera Taboada, Luis Angel, Sialer Puelles, Melissa Aurora, Velarde Gonzales, Juan José 07 December 2020 (has links)
El presente trabajo de investigación abordó una novedosa campaña televisiva desplegada por UNICEF Perú, para fomentar la afiliación de donantes a su programa Soy Socio, en beneficio de niños y niñas en situación de vulnerabilidad. A partir de la información de la primera campaña de promoción televisiva, se extrajeron diversos insights, gracias a la aplicación de herramientas y técnicas de ciencia de datos, para analizar sus principales resultados y evaluar el performance del proveedor de atención telefónica, como la contribución de los grupos televisivos contratados. De este modo, se buscaron reconocer las principales características de los nuevos asociados. Se recurrió al modelo de regresión lineal, a fin de proyectar el nivel de efectividad en función del volumen de llamadas y donaciones captadas (nivel de conversión) y los días de duración de la campaña. Asimismo, se aplicó el método de ajuste de error cuadrático medio, para establecer la bondad del modelo, encontrándose una relación positiva, aunque sujeta a la influencia de otros factores exógenos. Para la construcción del perfil de los donantes, se utilizó la técnica de clusterización, la cual permitió reconocer y agrupar características relevantes de los nuevos asociados, con el fin de que la institución pueda orientar con mayor eficiencia sus campañas a futuro. Por último, se elaboraron diversas visualizaciones en línea con los objetivos de la investigación, para esto, se recurrieron a los conocimientos adquiridos en los cursos que componen la mención de ciencia de datos. / This research work addresses a novel television campaign deployed by UNICEF Peru to encourage donor affiliation to its Soy Socio program, for the benefit of children in vulnerable situations. Based on the information from the first television promotion campaign, various insights were extracted thanks to the application of data science tools and techniques, to analyze their main results and evaluate the performance of the telephone service provider, as well as the contribution of the television groups hired. In the same way, they sought to recognize the main characteristics of the new associates. The Linear Regression Model was used to project the level of effectiveness based on the volume of calls and donations captured (conversion level) and the days of the campaign. Likewise, the Mean Square Error adjustment method was applied to establish the goodness of the model, finding a positive relationship, although subject to the influence of other exogenous factors. For the construction of the donor profile, the clustering technique was used, which made it possible to recognize and group relevant characteristics of the new associates, so that the institution can more efficiently orient its future campaigns. Finally, various visualizations were developed in line with the objectives of the research, resorting to the knowledge acquired in the courses that make up the data science mention. / Trabajo de investigación
78

Clasificación Jerárquica Multiclase

Silva Palacios, Daniel Andrés 28 May 2021 (has links)
[ES] La sociedad moderna se ha visto afectada por los acelerados avances de la tecnología. La aplicación de la inteligencia artificial se puede encontrar en todas partes, desde la televisión inteligente hasta los coches autónomos. Una tarea esencial del aprendizaje automático es la clasificación. A pesar de la cantidad de técnicas y algoritmos de clasificación que existen, es un campo que sigue siendo relevante por todas sus aplicaciones. Así, frente a la clasificación tradicional multiclase en la que a cada instancia se le asigna una única etiqueta de clase, se han propuesto otros métodos como la clasificación jerárquica y la clasificación multietiqueta. Esta tesis tiene como objetivo resolver la clasificación multiclase mediante una descomposición jerárquica. Asimismo, se exploran diferentes métodos de extender la aproximación definida para su aplicación en contextos cambiantes. La clasificación jerárquica es una tarea de aprendizaje automático en la que el problema de clasificación original se divide en pequeños subproblemas. Esta división se realiza teniendo en cuenta una estructura jerárquica que representa las relaciones entre las clases objetivo. Como resultado el clasificador jerárquico es a su vez una estructura (un árbol o un grafo) compuesta por clasificadores de base. Hasta ahora, en la literatura, la clasificación jerárquica se ha aplicado a dominios jerárquicos, independientemente que la estructura jerárquica sea proporcionada explícitamente o se asume implícita (en cuyo caso se hace necesario inferir primero dicha estructura jerárquica). La clasificación jerárquica ha demostrado un mejor rendimiento en dominios jerárquicos en comparación con la clasificación plana (que no tiene en cuenta la estructura jerárquica del dominio). En esta tesis, proponemos resolver los problemas de clasificación multiclase descomponiéndolo jerárquicamente de acuerdo a una jerarquía de clases inferida por un clasificador plano. Planteamos dos escenarios dependiendo del tipo de clasificador usado en la jerarquía de clasificadores: clasificadores duros (crisp) y clasificadores suaves (soft). Por otra parte, un problema de clasificación puede sufrir cambios una vez los modelos han sido entrenados. Un cambio frecuente es la aparición de una nueva clase objetivo. Dado que los clasificadores no han sido entrenados con datos pertenecientes a la nueva clase, no podrán encontrar predicciones correctas para las nuevas instancias, lo que afectará negativamente en el rendimiento de los clasificadores. Este problema se puede resolver mediante dos alternativas: el reentrenamiento de todo el modelo o la adaptación del modelo para responder a esta nueva situación. Como parte del estudio de los algoritmos de clasificación jerárquica se presentan varios métodos para adaptar el modelo a los cambios en las clases objetivo. Los métodos y aproximaciones definidas en la tesis se han evaluado experimentalmente con una amplia colección de conjuntos de datos que presentan diferentes características, usando diferentes técnicas de aprendizaje para generar los clasificadores de base. En general, los resultados muestran que los métodos propuestos pueden ser una alternativa a métodos tradicionales y otras técnicas presentadas en la literatura para abordar las situaciones específicas planteadas. / [CA] La societat moderna s'ha vist afectada pels accelerats avenços de la tecnologia. L'aplicació de la intel·ligència artificial es pot trobar a tot arreu, des de la televisió intel·ligent fins als cotxes autònoms. Una tasca essencial de l'aprenentatge automàtic és la classificació. Tot i la quantitat de tècniques i algoritmes de classificació que existeixen, és un camp que segueix sent rellevant per totes les seves aplicacions. Així, enfront de la classificació tradicional multiclase en la qual a cada instància se li assigna una única etiqueta de classe, s'han proposat altres mètodes com la classificació jeràrquica i la classificació multietiqueta. Aquesta tesi té com a objectiu resoldre la classificació multiclase mitjançant una descomposició jeràrquica. Així mateix, s'exploren diferents mètodes d'estendre l'aproximació definida per a la seva aplicació en contextos canviants. La classificació jeràrquica és una tasca d'aprenentatge automàtic en la qual el problema de classificació original es divideix en petits subproblemes. Aquesta divisió es realitza tenint en compte una estructura jeràrquica que representa les relacions entre les classes objectiu. Com a resultat el classificador jeràrquic és al seu torn una estructura (un arbre o un graf) composta per classificadors de base. Fins ara, en la literatura, la classificació jeràrquica s'ha aplicat a dominis jeràrquics, independentment que l'estructura jeràrquica sigui proporcionada explícitament o s'assumeix implícita (en aquest cas es fa necessari inferir primer aquesta estructura jeràrquica). La classificació jeràrquica ha demostrat un millor rendiment en dominis jeràrquics en comparació amb la classificació plana (que no té en compte l'estructura jeràrquica de l'domini). En aquesta tesi, proposem resoldre els problemes de classificació multiclasse descomponent jeràrquicament d'acord a una jerarquia de classes inferida per un classificador pla. Plantegem dos escenaris depenent de el tipus de classificador usat en la jerarquia de classificadors: classificadors durs (crisp) i classificadors suaus (soft). D'altra banda, un problema de classificació pot patir canvis una vegada els models han estat entrenats. Un canvi freqüent és l'aparició d'una nova classe objectiu. Atès que els classificadors no han estat entrenats amb dades pertanyents a la nova classe, no podran trobar prediccions correctes per a les noves instàncies, el que afectarà negativament en el rendiment dels classificadors. Aquest problema es pot resoldre mitjançant dues alternatives: el reentrenament de tot el model o l'adaptació de el model per respondre a aquesta nova situació. Com a part de l'estudi dels algoritmes de classificació jeràrquica es presenten diversos mètodes per adaptar el model als canvis en les classes objectiu. Els mètodes i aproximacions definides en la tesi s'han avaluat experimentalment amb una àmplia col·lecció de conjunts de dades que presenten diferents característiques, usant diferents tècniques d'aprenentatge per generar els classificadors de base. En general, els resultats mostren que els mètodes proposats poden ser una alternativa a mètodes tradicionals i altres tècniques presentades en la literatura per abordar les situacions específiques plantejades. / [EN] The modern society has been affected by rapid advances in technology. The application of artificial intelligence can be found everywhere, from intelligent television to autonomous cars. An essential task of machine learning is classification. Despite the number of classification techniques and algorithms that exist, it is a field that remains relevant for all its applications. Thus, as opposed to the traditional multiclass classification in which each instance is assigned a single class label, other methods such as hierarchical classification and multi-label classification have been proposed. This thesis aims to solve multiclass classification by means of a hierarchical decomposition. Also, different methods of extending the defined approach are explored for application in changing contexts. Hierarchical classification is an automatic learning task in which the original classification problem is divided into small sub-problems. This division is made taking into account a hierarchical structure that represents the relationships between the target classes. As a result the hierarchical classifier is itself a structure (a tree or a graph) composed of base classifiers. Up to now, in the literature, hierarchical classification has been applied to hierarchical domains, regardless of whether the hierarchical structure is explicitly provided or assumed to be implicit (in which case it becomes necessary to first infer the hierarchical structure). Hierarchical classification has demonstrated better performance in hierarchical domains compared to flat classification (which does not take into account the hierarchical structure of the domain). In this thesis, we propose to solve the problems of multiclass classification by breaking it down hierarchically according to a class hierarchy inferred by a plane classifier. We propose two scenarios depending on the type of classifier used in the classifier hierarchy: hard classifiers (crisp) and soft classifiers (soft). On the other hand, a classification problem may change once the models have been trained. A frequent change is the appearance of a new target class. Since the existing classifiers have not been trained with data belonging to the new class, they will not be able to find correct predictions for the new instances, which will negatively affect the performance of the classifiers. This problem can be solved by two alternatives: retraining the entire model or adapting the model to respond to this new situation. As part of the study of hierarchical classification algorithms, several methods are presented to adapt the model to changes in target classes. The methods and approaches defined in the thesis have been evaluated experimentally with a large collection of data sets that have different characteristics, using different learning techniques to generate the base classifiers. In general, the results show that the proposed methods can be an alternative to traditional methods and other techniques presented in the literature to address the specific situations raised. / Silva Palacios, DA. (2021). Clasificación Jerárquica Multiclase [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/167015 / TESIS
79

Sistema de atención de clientes casino y definición de campañas segmentadas mediante machine learning / Casino customer care system and definition of segmented campaigns through machine learning

Chara Pelaez, Frank Jonathan, Martel Anaya, Vicente 11 December 2020 (has links)
El presente proyecto de tesis corresponde al desarrollo de un sistema móvil y web, enfocado al área operativa y administrativa. Por lo cual se espera maximizar el tiempo de juego del cliente, automatizando aquellas actividades que le hacen perder tiempo de juego. Tanto es así que el sistema propondrá promociones y sorteos enfocados en las preferencias del cliente, gracias a la herramienta “Machine Learning”. El documento está compuesto por ocho capítulos. En el primer capítulo, se detallan los fundamentos teóricos del proyecto en donde se describirá al objeto de estudio y los procesos de negocio. En el segundo capítulo, se describe la propuesta de solución planteada identificando los objetivos y beneficios del proyecto. En el tercer capítulo, se realizará el modelado del negocio según la metodología RUP en donde se identificarán los actores, trabajadores y casos de uso del negocio. En el cuarto capítulo, se especifican los requerimientos funcionales y no funcionales, modelo de casos de uso del sistema y el diagrama del modelo conceptual. En el quinto y sexto capítulo, se describe la arquitectura de software en donde se detallan las metas, restricciones, mecanismos arquitecturales y vistas de la arquitectura de software. Además, se detallarán los patrones de la solución propuesta y el modelo de datos. En el séptimo capítulo, se detalla el plan de calidad y las pruebas de software. El último capítulo especificará la gestión del proyecto, elaborando la EDT, el cronograma, los principales interesados, entre otros. / This thesis project corresponds to the development of a mobile and web system, focused on the operational and administrative area. Therefore, it is expected to maximize the client's playing time, automating those activities that make them lose playing time. So much so that the system will propose promotions and raffles focused on customer preferences, thanks to the “Machine Learning” tool. The document is made up of eight chapters. The first chapter, the theoretical foundations of the project are detailed, where the object of study and the business processes will be described. In the second chapter, the proposed solution is described, identifying the objectives and benefits of the project. In the third chapter, the business modeling will be carried out according to the RUP methodology where the actors, workers and business use cases will be identified. In the fourth chapter, the functional and non-functional requirements, the system use case model and the conceptual model diagram are specified. In the fifth and sixth chapters, the software architecture is described, where the goals, constraints, architectural mechanisms and views of the software architecture are detailed. In addition, the patterns of the proposed solution and the data model will be detailed. In the seventh chapter details the quality plan and the software tests. The last chapter will specify the management of the project, preparing the WBS, the schedule, the main stakeholders, among others. / Tesis
80

Incidencia de la calidad el aire en el desarrollo urbano sostenible. Metodología de pronóstico basado en herramientas de aprendizaje automático

Molina Gómez, Nidia Isabel 24 November 2021 (has links)
Tesis por compendio / [ES] La calidad del aire es un determinante de la salud y bienestar de las poblaciones; su mejora es parte de algunas metas de los objetivos de desarrollo sostenible (ODS) con la Agenda 2030. Al respecto, se han definido a nivel mundial protocolos, acuerdos, convenios y lineamientos de política para lograr avanzar en el cumplimiento de los ODS. Existen además reportes nacionales de avance en la implementación de metas específicas, según la agenda de cada país y en algunos casos en el ámbito de ciudad, cuyos indicadores pueden integrarse en las dimensiones más conocidas del desarrollo sostenible: la dimensión ambiental, la social y la económica. Existe información sobre el monitoreo del estado de la calidad de los recursos y de condiciones del territorio en diversos temas. Sin embargo, no en todos los territorios, en sus diferentes escalas espaciales, se realiza una continua evaluación de su desempeño sostenible y, además factores de deterioro ambiental como la contaminación del aire, son tratados como determinantes aislados con la generación de reportes de su comportamiento y el desarrollo de planes de monitoreo y de mitigación. Del mismo modo, para los diferentes temas que hacen parte de las dimensiones de la sostenibilidad, existen herramientas de modelación para evaluar el comportamiento de sus indicadores; sin embargo, no se cuenta con un instrumento que pronostique el nivel de avance en el desarrollo sostenible y además que identifique la influencia de la calidad del aire en su comportamiento. Las herramientas de aprendizaje automático pueden aportar en la respuesta a dicha situación, al ser instrumentos útiles en el pronóstico del comportamiento de un conjunto de datos. Por consiguiente, el objetivo central de este trabajo doctoral es establecer la incidencia de la calidad del aire sobre el desarrollo urbano sostenible, en sus dimensiones ambiental, social y económica, mediante el uso de herramientas de aprendizaje automático, como soporte para la toma de decisiones. Este objetivo involucra el diseño y ejecución de una metodología para identificar la influencia de indicadores en materia de calidad del aire, sobre el desarrollo urbano sostenible. Este trabajo doctoral se desarrolló como compendio de un conjunto de publicaciones que incluyen 1) la revisión del estado del arte para la identificación de las variables y parámetros que podrían calificar las dimensiones individuales del desempeño sostenible, 2) la evaluación del nivel de avance en el desarrollo sostenible de una zona urbana y el análisis estadístico de su desempeño sostenible según las variables analizadas; 3) la identificación, selección y aplicación de las herramientas de aprendizaje automático y por último 4) la identificación del grado de influencia de la calidad del aire en el pronóstico del nivel de sostenibilidad establecido. Para ello se hizo uso del software ArcGIS para el análisis espacial y del software de acceso libre R para los análisis estadísticos y la aplicación de las herramientas de aprendizaje automático. Esta investigación se realizó a partir de un estudio de caso en una localidad de la ciudad de Bogotá, en Colombia que es la capital del país, situada sobre una planicie altitudinal en la cordillera oriental y a 2625 metros sobre el nivel del mar. Bogotá es una de las ciudades más pobladas en América Latina y es una de las capitales mundiales que ha presentado altos niveles de contaminación por material particulado, siendo éste un factor de riesgo para su población. La metodología construida permite evaluar la influencia de la calidad del aire en el desarrollo urbano sostenible mediante herramientas de aprendizaje automático. Es aplicable a zonas urbanas y orienta el paso a paso para la determinación de los factores de mayor relevancia en cada una de las dimensiones de la sostenibilidad, constituyéndose en un instrumento de soporte para la toma de decisiones respecto a la implem / [CA] La qualitat de l'aire és un determinant de la salut i benestar de les poblacions; la seua millora és part d'algunes metes dels objectius de desenvolupament sostenible (ODS) amb l'Agenda 2030. Sobre aquest tema, s'han definit a nivell mundial protocols, acords, convenis i alineaments de política per a aconseguir avançar en el compliment dels ODS. Existeixen reportes nacionals d'avanç sobre la implementació de metes específiques, segons l'agenda de cada país i en alguns casos en l'àmbit de ciutat, els indicadors de la qual poden integrar-se en les dimensions més conegudes del desenvolupament sostenible: la dimensió ambiental, la social i l'econòmica. Existeix informació sobre el monitoratge de l'estat de la qualitat dels recursos i de les condicions del territori en diversos temes. No obstant això, no en tots els territoris, en les seues diferents escales espacials, es realitza contínua avaluació del seu acompliment sostenible i, a més a més, factors de deterioració ambiental com la contaminació de l'aire, són tractats com a determinants aïllats amb la generació de reportes del seu comportament i el desenvolupament de plans de monitoratge i de mitigació. De la mateixa manera, per als diferents temes que fan part de les dimensions de la sostenibilitat, existeixen eines de modelatge per a avaluar el comportament dels seus indicadors; no obstant això, no es compta amb un instrument que pronostique el nivell d'avanç en el desenvolupament sostenible i a més que identifique la influència de la qualitat de l'aire en el seu comportament. Les eines d'aprenentatge automàtic poden aportar en la resposta a aquesta situació, en ser instruments útils en el pronòstic del comportament d'un conjunt de dades. Per consegüent, l'objectiu central d'aquest treball doctoral és establir la incidència de la qualitat de l'aire sobre el desenvolupament urbà sostenible, en les seues dimensions ambiental, social i econòmica, mitjançant l'ús d'eines d'aprenentatge automàtic, com a suport per a la presa de decisions. Aquest objectiu involucra el disseny i execució d'una metodologia per a identificar la influència d'indicadors en matèria de qualitat de l'aire, sobre el desenvolupament urbà sostenible. Aquest treball doctoral es va desenvolupar com a compendi d'un conjunt de publicacions que inclouen 1) la revisió de l'estat de l'art per a la identificació de les variables i paràmetres que podrien qualificar les dimensions individuals de l'acompliment sostenible, 2) l'avaluació del nivell d'avanç en el desenvolupament sostenible d'una zona urbana i l'anàlisi estadística del seu acompliment sostenible segons les variables analitzades; 3) la identificació, selecció i aplicació de les eines d'aprenentatge automàtic i finalment 4) la identificació del grau d'influència de la qualitat de l'aire en el pronòstic del nivell de sostenibilitat establit. Per a això es va fer ús del programari ArcGIS per a l'anàlisi espacial i del programari d'accés lliure R per a les anàlisis estadístiques i l'aplicació de les eines d'aprenentatge automàtic. Aquesta investigació es va realitzar a partir d'un estudi de cas en una localitat de la ciutat de Bogotà, a Colòmbia que és la capital del país, situada sobre una planícia altitudinal en la serralada oriental i a 2625 metres sobre el nivell de la mar. Bogotà és una de les ciutats més poblades a Amèrica Llatina i és una de les capitals mundials que ha presentat alts nivells de contaminació per material particulat, sent aquest un factor de risc per a la seua població. La metodologia construïda permet avaluar la influència de la qualitat de l'aire en el desenvolupament urbà sostenible mitjançant l'ús d'eines d'aprenentatge automàtic. És aplicable a zones urbanes i orienta el pas a pas per a la determinació dels factors de major rellevància en cadascuna de les dimensions de la sostenibilitat, constituint-se en un instrument de suport per a la presa d / [EN] Air quality is a determinant to the health and well-being of populations; its improvement is part of some of the targets of the Sustainable Development Goals (SDGs) with the 2030 Agenda. In this regard, protocols, agreements, pacts, and policy guidelines have been defined worldwide to progress in the SDGs' achievement. Additionally, there are national progress reports on reaching specific goals, based on each country's agenda. In certain cases, these include city-level reports, whose indicators, both at the national and city levels, can be integrated into the central and best-known dimensions of sustainable development, namely the environmental, social, and economic dimensions. There is information concerning the monitoring of the state of resource quality and territorial conditions in various areas. However, not all territories in their different spatial scales are continuously evaluated for their sustainable performance. Moreover, environmental deterioration factors such as air pollution are handled as isolated determinants with reports generated on their behavior, in addition to developing monitoring and mitigation plans. Likewise, there are modeling tools to evaluate the behavior of different components that are part of the dimensions of sustainability. However, there is no instrument that forecasts the level of progress in sustainable development that also identifies the influence of air quality on its behavior. Machine learning tools can contribute to responding to this situation, as they are able to predict the behavior of a data set. Therefore, the primary objective of this doctoral work is to establish the incidence of air quality on urban sustainable development, in its environmental, social, and economic dimensions, through the use of machine learning tools to support decision-making. This objective entails designing and implementing a methodology to identify the influence of air quality indicators on urban sustainable development. This doctoral thesis was developed as a compendium of a set of publications which include: 1) the review of the state of the art for identifying variables and parameters that could qualify the individual dimensions of sustainable performance; 2) the evaluation of the level of progress of the sustainable development of an urban area, and the statistical analysis of its sustainable performance based on the variables analyzed; 3) the identification, selection, and use of machine learning tools, and lastly 4) the identification of the influence of air quality on the prediction of the established sustainability level. The ArcGIS program was used for the spatial analysis, and the free-access software R for the statistical analysis, and the use of the machine learning tools. This research was performed based on a case study of a locality in the capital of Colombia; Bogotá, which is located on an altitudinal plain in the eastern mountain range at 2625 meters above sea level. Bogotá is one of the most populated cities in Latin America and is one of the world capitals with the highest levels of air pollution from particulate matter, which is a risk factor for its population. The methodology developed enables evaluating the influence of air quality on urban sustainable development with machine learning tools. This methodology is valid in urban areas, and through a step-by-step approach, determines the most relevant factors for each sustainability dimension. It has become a tool to support decision-making regarding the implementation and progress of the SDGs from the micro-territory level. / Molina Gómez, NI. (2021). Incidencia de la calidad el aire en el desarrollo urbano sostenible. Metodología de pronóstico basado en herramientas de aprendizaje automático [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/168398 / TESIS / Compendio

Page generated in 0.1012 seconds