• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 72
  • 37
  • Tagged with
  • 109
  • 109
  • 53
  • 51
  • 47
  • 44
  • 38
  • 38
  • 38
  • 38
  • 38
  • 32
  • 31
  • 27
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Implementación de un sistema de información para la gestión del proceso de reclutamiento y selección de personal orientado a la asignación de puestos en pymes

Alvarez Rojas, Dominick Patricia 21 September 2023 (has links)
En la actualidad, las empresas buscan obtener el personal más idóneo para los puestos de trabajo a través del proceso de reclutamiento y selección. Esto debido a que una elección adecuada tiene un impacto positivo en las organizaciones para la consecución de sus objetivos. Además, en muchas ocasiones, se cuestionan si el personal ya existente dentro de la organización también puede calificar como potencial candidato. Ante ello, surge una necesidad por llevar el proceso de reclutamiento y selección de la manera más efectiva y eficiente posible; sin embargo, en la mayoría de medianas y pequeñas empresas carecen de herramientas tecnológicas que les permita hacer el uso adecuado de la información. Es por ello que, actualmente, el proceso de reclutamiento y selección en la mayoría de las pymes se gestiona con actividades manuales o con herramientas que almacenan la información del personal, pero no permiten estructurarla y obtener información necesaria y accesible para la organización. Esto se da porque la mayoría de herramientas actuales son utilizadas como un repositorio para los documentos e información del trabajador sin aprovecharla para la toma de decisiones dentro del proceso de reclutamiento y selección. Así mismo, se evidencia que en la mayoría de pymes no existen lineamientos formales para llevar a cabo el proceso de reclutamiento y selección, es por ello que procedimientos como la selección del personal se ejecutan en base a un conocimiento tácito. Como consecuencia, la data no se utiliza en su totalidad para obtener información enriquecedora para este proceso, además que genera un sentimiento de desconfianza por parte de los postulantes internos o externos sobre la objetividad de las actividades llevadas a cabo en el proceso. Es por todo lo expuesto que se evidencian los problemas y necesidades que surgen en el proceso reclutamiento y selección en las pequeñas y medianas empresas, por lo que se presenta en el presente documento el proyecto de tesis acerca la de implementación de un sistema de información para la gestión del proceso de reclutamiento y selección en pymes, la cual sigue lineamientos para el diseño centrado en el usuario así como la automatización de la selección personal implementando un algoritmo de machine learning basado en la experiencia, cursos y habilidades del personal o potencial candidato.
62

Arquitectura de IoT para la implementación de servicios cognitivos

Valero López, Clara Isabel 12 February 2024 (has links)
[ES] Internet of Things (IoT) se ha convertido en una realidad omnipresente que está transformando la forma en la que interactuamos con el entorno y cómo los dispositivos y objetos se conectan, comunican e intercambian información, abriendo un abanico de posibilidades y oportunidades sin precedentes. Sus aplicaciones son casi infinitas y gracias a su gran potencial, hoy en día está presente en todo tipo de ámbitos. Artificial Internet of Things (AIoT) se considera la siguiente etapa de Internet. Se trata de un nuevo paradigma de red que combina IoT con la inteligencia artificial (IA) dando lugar a sistemas altamente inteligentes y autónomos, capaces de comprender, razonar y aprender de manera similar a los seres humanos. Sin embargo, a pesar de su potencial, uno de los desafíos clave que enfrenta AIoT desde sus inicios es la falta de una arquitectura de referencia estandarizada que proporcione un conjunto de funcionalidades básicas, estructuras de información y mecanismos que sirvan de modelo para desarrollar e implementar estos sistemas. Esta falta de estandarización está dando lugar a una serie de problemas y desafíos en su implementación y adopción generalizada. En primer lugar, la falta de estándares comunes dificulta la interoperabilidad entre diferentes dispositivos y sistemas AIoT. Además, la ausencia de una arquitectura de referencia complica el desarrollo coherente y eficiente. Por último, se observan dificultades para escalar los sistemas. Sin una estructura común y estándares interoperables, resulta más complicado integrar y administrar grandes cantidades de dispositivos y datos. En esta tesis se presenta una arquitectura de referencia AIoT multidominio. El diseño de la arquitectura considera las recomendaciones de la ITU propuestas en UIT-T Y.2066. Además, la arquitectura propuesta se alinea a su vez con otras dos arquitecturas de referencia: IIRA y RAMI 4.0. Como consecuencia, la arquitectura presenta una naturaleza versátil y adaptable, lo que le permite ajustarse a las necesidades y requerimientos de diferentes contextos y dominios. La arquitectura presentada ha sido implementada y validada en cuatro casos de uso desarrollados en el contexto de cuatro proyectos de investigación. En los proyectos ACTIVAGE - H2020 LSP y DIATOMIC Open Call nº2 - H2020 la arquitectura facilita la implementación de servicios cognitivos de asistencia para personas mayores. En el proyecto COSIBAS - Programa Internacional ITEA3 incorpora a un sistema IoT heredado capacidades cognitivas para mejorar la gestión del tráfico marino. Por último, en OPTIMAI - H2020 se incorporan capacidades cognitivas a una línea de producción de antenas para detectar anomalías. / [CA] Internet of Things (IoT) s'ha convertit en una realitat omnipresent que està transformant la manera com interactuem amb l'entorn i com els dispositius i objectes es connecten, comuniquen i intercanvien informació, obrint un ventall de possibilitats i oportunitats sense precedents. Les seves aplicacions són quasi infinites i gràcies al seu gran potencial, avui dia és present en tot tipus d'àmbits. Artificial Internet of Things (AIoT) es considera la següent etapa de la Internet. Es tracta d'un nou paradigma de xarxa que combina IoT amb la intel·ligència artificial (IA) donant lloc a sistemes altament intel·ligents i autònoms, capaços de comprendre, raonar i aprendre de manera similar a els éssers humans. Tot i això, malgrat el seu potencial, un dels desafiaments clau que enfronta AIoT des dels seus inicis és la manca d'una arquitectura de referència estandarditzada que proporcioni un conjunt de funcionalitats bàsiques, estructures d'informació i mecanismes que serveixin de model per desenvolupar implementar aquests sistemes. Aquesta manca d'estandardització dona lloc a una sèrie de problemes i desafiaments en la seva implementació i adopció generalitzada. En primer lloc, la manca d'estàndards comuns dificulta la interoperabilitat entre diferents dispositius i sistemes AIoT. A més a més, l'absència d'una arquitectura de referència complica el desenvolupament coherent i eficient. Per acabar, s'observen dificultats per escalar els sistemes. Sense una estructura comuna i estàndards interoperables, és més complicat integrar i administrar grans quantitats de dispositius i dades. En aquesta tesi es presenta una arquitectura de referència AIoT multidomini. El disseny de l'arquitectura considera les recomanacions de la ITU proposades a UIT-T Y.2066. A més, l'arquitectura proposada s'alinea alhora amb dues arquitectures de referència més: IIRA i RAMI 4.0. Com a conseqüència, l'arquitectura presenta una naturalesa versàtil i adaptable, cosa que permet ajustar-se a les necessitats i requeriments de diferents contextos i dominis de la IoT. L'arquitectura presentada ha estat implementada i validada en quatre casos d'ús desenvolupats en el context de quatre projectes de recerca. Als projectes ACTIVAGE - H2020 LSP i DIATOMIC Open Call nº2 - H2020 l'arquitectura facilita la implementació de serveis cognitius d'assistència per a gent gran. Al projecte COSIBAS - Programa Internacional ITEA3 incorpora a un sistema IoT heretat capacitats cognitives per millorar la gestió del trànsit marí. Per acabar, a OPTIMAI - H2020 s'incorporen capacitats cognitives a una línia de producció d'antenes per detectar anomalies. / [EN] Internet of Things (IoT) has become an omnipresent reality that is transforming the way we interact with the environment and how devices and objects connect, communicate, and exchange information, opening a range of unprecedented possibilities and opportunities. Its applications are almost infinite, and thanks to its tremendous potential, it is now present in all kinds of fields. Artificial Internet of Things (AIoT) is considered the next stage of the Internet. It is a new network paradigm that combines IoT with Artificial Intelligence (AI), resulting in highly intelligent and autonomous systems capable of understanding, reasoning, and learning similar to humans. However, despite its potential, one of the key challenges that AIoT has faced since its inception is the lack of a standardized reference architecture that provides a set of basic functionalities, information structures, and mechanisms to serve as a model for developing and implementing these systems. This lack of standardization has led to a series of problems and challenges in its implementation and widespread adoption. Firstly, the lack of common standards hinders interoperability between different AIoT devices and systems. Additionally, the absence of a reference architecture complicates coherent and efficient development. Lastly, scaling the systems poses difficulties. Without a common structure and interoperable standards, integrating and managing large amounts of devices and data becomes more complex. This thesis presents a multidomain AIoT reference architecture that incorporates recommendations from the ITU, as proposed in UIT-T Y.2066. Furthermore, the proposed architecture aligns with two other reference architectures: IIRA and RAMI 4.0. As a result, the architecture exhibits versatility and adaptability, allowing it to meet the needs and requirements of different IoT contexts and domains. The presented architecture has been implemented and validated in four use cases developed in the context of four research projects. In the ACTIVAGE - H2020 LSP and DIATOMIC Open Call nº2 - H2020 projects, the architecture facilitates the implementation of cognitive assistance services for the elderly. In the COSIBAS - International ITEA3 Program, it incorporates cognitive capabilities into a legacy IoT system to improve maritime traffic management. Finally, in OPTIMAI - H2020, cognitive capabilities are integrated into an antenna production line to detect anomalies. / La arquitectura presentada en esta tesis ha sido implementada y validada en cuatro casos de uso desarrollados en el contexto de cuatro proyectos de investigación. En los proyectos ACTIVAGE - H2020 LSP y DIATOMIC Open Call nº2 - H2020 la arquitectura facilita la implementación de servicios cognitivos de asistencia para personas mayores. En el proyecto COSIBAS - Programa Internacional ITEA3 incorpora a un sistema IoT heredado capacidades cognitivas para mejorar la gestión del tráfico marino. Por último, en OPTIMAI - H2020 se incorporan capacidades cognitivas a una línea de producción de antenas para detectar anomalías. / Valero López, CI. (2024). Arquitectura de IoT para la implementación de servicios cognitivos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202613
63

Diseño de una arquitectura de aprendizaje automático que brinde soporte para la detección de mentiras mediante el análisis de video

Salas Guillén, Diego Andrés 30 July 2019 (has links)
La justicia y la búsqueda de la verdad en la investigación criminal requiere del uso de una herramienta fundamental para su éxito, el interrogatorio. En un interrogatorio, un experto hace uso de su experiencia y su juicio para, mediante el cuestionamiento del acusado, obtener una verdad explícita o implícita de parte de este sobre el hecho a investigar. El presente proyecto de investigación apunta a diseñar un modelo de aprendizaje automático que brinde soporte para la detección de mentiras en interrogatorios mediante el análisis de video. Es una contribución a los trabajos de investigación realizados por el grupo IA-PUCP (Grupo de Investigación en Inteligencia Artificial) de la Pontificia Universidad Católica del Perú. Se utilizó un conjunto de datos puesto a disponibilidad por Rada Mihalcea del grupo “Language and Information Technologies” de la Universidad de Michigan. La propuesta de arquitectura para el modelo consiste en una capa de preprocesamiento de datos que utiliza un algoritmo de reconocimiento facial para extraer los rostros del video, limitando el espacio de características. Luego, se utiliza una red convolucional preentrenada para realizar la extracción de características. Finalmente, se utiliza una red recurrente LSTM para procesar las características y luego una red neuronal para clasificar los videos. Se experimentó con cinco redes convolucionales (Resnet, InceptionV3, Xception, VGG16 y VGG19), el mejor fue InceptionV3. Este obtuvo una exactitud de 78.6 %, valor que supera varios de los resultados obtenidos por los modelos, presentados en la publicación “A Multi-View Learning Approach to Deception Detection” de N. Carissimi, que no aplicaron entrenamiento en la extracción convolucional. Esto, utilizando menos información y automatizando la extracción de la misma. / Tesis
64

Identificación de múltiples intenciones y sus dependencias subsumidas en múltiples utterances para el desarrollo de Chatbots

Pariasca Trevejo, Emanuel Eduardo Franco 29 March 2023 (has links)
Los chatbots son sistemas de procesamiento de lenguaje natural con los que se puede interactuar mediante una interfaz de texto o voz, y han sido adoptados en muchas industrias para responder las preguntas y solicitudes de los usuarios a través de interfaces de chat. Por ende, los chatbots tienen un valor comercial como asistentes virtuales. Tanto es así que se está trabajando en que los chatbots puedan comunicarse con los usuarios de manera similar a la comunicación que hay entre dos humanos; en otras palabras, un usuario debe experimentar la sensación de comunicarse con una persona. A su vez, dado que los chatbots eliminan los factores humanos y están disponibles las 24 horas del día, hay un incremento en la demanda de las capacidades de inteligencia artificial para interactuar con los clientes. En este aspecto, la sensación de comunicarse con una persona puede ser lograda mediante la inclusión de técnicas de comprensión del lenguaje natural, procesamiento del lenguaje natural, generación del lenguaje natural y aprendizaje automático. De este modo, los chatbots son capaces de interpretar una o varias intenciones comunicativas en cada “utterance” de un usuario, siendo que un “utterance” es todo lo que el usuario o chatbot mencionan mientras es su turno de hablar o escribir. Así mismo, los chatbots pueden asociar una o varias intenciones comunicativas a un identificador de “utterances” que contiene varios “utterances”. Por ende, a partir del “utterance” de un usuario, un chatbot es capaz de interpretar una o varias intenciones comunicativas asociadas a un identificador de “utterances”, a través del cual usa los “utterances” contenidos para escoger o generar un “utterance” como respuesta al usuario. No obstante, si bien un chatbot puede identificar múltiples intenciones comunicativas en un enunciado, de un usuario, con un “utterance”, no puede identificar múltiples intenciones comunicativas en un enunciado, de un usuario, que contenga múltiples “utterances”. En consecuencia, tampoco se ha investigado como encontrar los “utterances” de respuesta del chatbot cuando se tiene múltiples “utterances”. Por lo descrito previamente, en este proyecto se propone la implementación de una herramienta para: identificar múltiples intenciones comunicativas en múltiples “utterances”, identificar las dependencias entre intenciones, agrupar las intenciones a partir de sus dependencias, identificar las dependencias entre los grupos de intenciones respecto de los identificadores de “utterances” y los identificadores de “utterances” respecto de los “utterances”. Además, para facilitar el uso de la herramienta, se elabora una interfaz de programación de aplicaciones que recibe múltiples “utterances” en forma de texto, y devuelve los “utterances” segmentados, las intenciones identificadas, los grupos entre intenciones y los “utterances” de respuesta del chatbot para cada grupo de intenciones. Los resultados obtenidos evidencian que los enfoques utilizados son exitosos. Por último, se espera mejorar los resultados con técnicas de inteligencia artificial y computación lingüística.
65

Automatic Classification of musical mood by content-based analysis

Laurier, Cyril François 19 September 2011 (has links)
In this work, we focus on automatically classifying music by mood. For this purpose, we propose computational models using information extracted from the audio signal. The foundations of such algorithms are based on techniques from signal processing, machine learning and information retrieval. First, by studying the tagging behavior of a music social network, we find a model to represent mood. Then, we propose a method for automatic music mood classification. We analyze the contributions of audio descriptors and how their values are related to the observed mood. We also propose a multimodal version using lyrics, contributing to the field of text retrieval. Moreover, after showing the relation between mood and genre, we present a new approach using automatic music genre classification. We demonstrate that genre-based mood classifiers give higher accuracies than standard audio models. Finally, we propose a rule extraction technique to explicit our models. / En esta tesis, nos centramos en la clasificación automática de música a partir de la detección de la emoción que comunica. Primero, estudiamos cómo los miembros de una red social utilizan etiquetas y palabras clave para describir la música y las emociones que evoca, y encontramos un modelo para representar los estados de ánimo. Luego, proponemos un método de clasificación automática de emociones. Analizamos las contribuciones de descriptores de audio y cómo sus valores están relacionados con los estados de ánimo. Proponemos también una versión multimodal de nuestro algoritmo, usando las letras de canciones. Finalmente, después de estudiar la relación entre el estado de ánimo y el género musical, presentamos un método usando la clasificación automática por género. A modo de recapitulación conceptual y algorítmica, proponemos una técnica de extracción de reglas para entender como los algoritmos de aprendizaje automático predicen la emoción evocada por la música
66

Interactivity, Adaptation and Multimodality in Neural Sequence-to-sequence Learning

Peris Abril, Álvaro 07 January 2020 (has links)
[ES] El problema conocido como de secuencia a secuencia consiste en transformar una secuencia de entrada en una secuencia de salida. Bajo esta perspectiva se puede atacar una amplia cantidad de problemas, entre los cuales destacan la traducción automática o la descripción automática de objetos multimedia. La aplicación de redes neuronales profundas ha revolucionado esta disciplina, y se han logrado avances notables. Pero los sistemas automáticos todavía producen predicciones que distan mucho de ser perfectas. Para obtener predicciones de gran calidad, los sistemas automáticos se utilizan bajo la supervisión de un humano, quien corrige los errores. Esta tesis se centra principalmente en el problema de la traducción del lenguaje natural, usando modelos enteramente neuronales. Nuestro objetivo es desarrollar sistemas de traducción neuronal más eficientes. asentándonos sobre dos pilares fundamentales: cómo utilizar el sistema de una forma más eficiente y cómo aprovechar datos generados durante la fase de explotación del mismo. En el primer caso, aplicamos el marco teórico conocido como predicción interactiva a la traducción automática neuronal. Este proceso consiste en integrar usuario y sistema en un proceso de corrección cooperativo, con el objetivo de reducir el esfuerzo humano empleado en obtener traducciones de alta calidad. Desarrollamos distintos protocolos de interacción para dicha tecnología, aplicando interacción basada en prefijos y en segmentos, implementados modificando el proceso de búsqueda del sistema. Además, ideamos mecanismos para obtener una interacción con el sistema más precisa, manteniendo la velocidad de generación del mismo. Llevamos a cabo una extensa experimentación, que muestra el potencial de estas técnicas: superamos el estado del arte anterior por un gran margen y observamos que nuestros sistemas reaccionan mejor a las interacciones humanas. A continuación, estudiamos cómo mejorar un sistema neuronal mediante los datos generados como subproducto de este proceso de corrección. Para ello, nos basamos en dos paradigmas del aprendizaje automático: el aprendizaje muestra a muestra y el aprendizaje activo. En el primer caso, el sistema se actualiza inmediatamente después de que el usuario corrige una frase, aprendiendo de una manera continua a partir de correcciones, evitando cometer errores previos y especializándose en un usuario o dominio concretos. Evaluamos estos sistemas en una gran cantidad de situaciones y dominios diferentes, que demuestran el potencial que tienen los sistemas adaptativos. También llevamos a cabo una evaluación humana, con traductores profesionales. Éstos quedaron muy satisfechos con el sistema adaptativo. Además, fueron más eficientes cuando lo usaron, comparados con un sistema estático. El segundo paradigma lo aplicamos en un escenario en el que se deban traducir grandes cantidades de frases, siendo inviable la supervisión de todas. El sistema selecciona aquellas muestras que vale la pena supervisar, traduciendo el resto automáticamente. Aplicando este protocolo, redujimos de aproximadamente un cuarto el esfuerzo humano necesario para llegar a cierta calidad de traducción. Finalmente, atacamos el complejo problema de la descripción de objetos multimedia. Este problema consiste en describir en lenguaje natural un objeto visual, una imagen o un vídeo. Comenzamos con la tarea de descripción de vídeos pertenecientes a un dominio general. A continuación, nos movemos a un caso más específico: la descripción de eventos a partir de imágenes egocéntricas, capturadas a lo largo de un día. Buscamos extraer relaciones entre eventos para generar descripciones más informadas, desarrollando un sistema capaz de analizar un mayor contexto. El modelo con contexto extendido genera descripciones de mayor calidad que un modelo básico. Por último, aplicamos la predicción interactiva a estas tareas multimedia, disminuyendo el esfuerzo necesa / [CA] El problema conegut com a de seqüència a seqüència consisteix en transformar una seqüència d'entrada en una seqüència d'eixida. Seguint aquesta perspectiva, es pot atacar una àmplia quantitat de problemes, entre els quals destaquen la traducció automàtica, el reconeixement automàtic de la parla o la descripció automàtica d'objectes multimèdia. L'aplicació de xarxes neuronals profundes ha revolucionat aquesta disciplina, i s'han aconseguit progressos notables. Però els sistemes automàtics encara produeixen prediccions que disten molt de ser perfectes. Per a obtindre prediccions de gran qualitat, els sistemes automàtics són utilitzats amb la supervisió d'un humà, qui corregeix els errors. Aquesta tesi se centra principalment en el problema de la traducció de llenguatge natural, el qual s'ataca emprant models enterament neuronals. El nostre objectiu principal és desenvolupar sistemes més eficients. Per a aquesta tasca, les nostres contribucions s'assenten sobre dos pilars fonamentals: com utilitzar el sistema d'una manera més eficient i com aprofitar dades generades durant la fase d'explotació d'aquest. En el primer cas, apliquem el marc teòric conegut com a predicció interactiva a la traducció automàtica neuronal. Aquest procés consisteix en integrar usuari i sistema en un procés de correcció cooperatiu, amb l'objectiu de reduir l'esforç humà emprat per obtindre traduccions d'alta qualitat. Desenvolupem diferents protocols d'interacció per a aquesta tecnologia, aplicant interacció basada en prefixos i en segments, implementats modificant el procés de cerca del sistema. A més a més, busquem mecanismes per a obtindre una interacció amb el sistema més precisa, mantenint la velocitat de generació. Duem a terme una extensa experimentació, que mostra el potencial d'aquestes tècniques: superem l'estat de l'art anterior per un gran marge i observem que els nostres sistemes reaccionen millor a les interacciones humanes. A continuació, estudiem com millorar un sistema neuronal mitjançant les dades generades com a subproducte d'aquest procés de correcció. Per a això, ens basem en dos paradigmes de l'aprenentatge automàtic: l'aprenentatge mostra a mostra i l'aprenentatge actiu. En el primer cas, el sistema s'actualitza immediatament després que l'usuari corregeix una frase. Per tant, el sistema aprén d'una manera contínua a partir de correccions, evitant cometre errors previs i especialitzant-se en un usuari o domini concrets. Avaluem aquests sistemes en una gran quantitat de situacions i per a dominis diferents, que demostren el potencial que tenen els sistemes adaptatius. També duem a terme una avaluació amb traductors professionals, qui varen quedar molt satisfets amb el sistema adaptatiu. A més, van ser més eficients quan ho van usar, si ho comparem amb el sistema estàtic. Pel que fa al segon paradigma, l'apliquem per a l'escenari en el qual han de traduir-se grans quantitats de frases, i la supervisió de totes elles és inviable. En aquest cas, el sistema selecciona les mostres que paga la pena supervisar, traduint la resta automàticament. Aplicant aquest protocol, reduírem en aproximadament un quart l'esforç necessari per a arribar a certa qualitat de traducció. Finalment, ataquem el complex problema de la descripció d'objectes multimèdia. Aquest problema consisteix en descriure, en llenguatge natural, un objecte visual, una imatge o un vídeo. Comencem amb la tasca de descripció de vídeos d'un domini general. A continuació, ens movem a un cas més específic: la descripció d''esdeveniments a partir d'imatges egocèntriques, capturades al llarg d'un dia. Busquem extraure relacions entre ells per a generar descripcions més informades, desenvolupant un sistema capaç d'analitzar un major context. El model amb context estés genera descripcions de major qualitat que el model bàsic. Finalment, apliquem la predicció interactiva a aquestes tasques multimèdia, di / [EN] The sequence-to-sequence problem consists in transforming an input sequence into an output sequence. A variety of problems can be posed in these terms, including machine translation, speech recognition or multimedia captioning. In the last years, the application of deep neural networks has revolutionized these fields, achieving impressive advances. However and despite the improvements, the output of the automatic systems is still far to be perfect. For achieving high-quality predictions, fully-automatic systems require to be supervised by a human agent, who corrects the errors. This is a common procedure in the translation industry. This thesis is mainly framed into the machine translation problem, tackled using fully neural systems. Our main objective is to develop more efficient neural machine translation systems, that allow for a more productive usage and deployment of the technology. To this end, we base our contributions on two main cornerstones: how to better use of the system and how to better leverage the data generated along its usage. First, we apply the so-called interactive-predictive framework to neural machine translation. This embeds the human agent and the system into a cooperative correction process, that seeks to reduce the human effort spent for obtaining high-quality translations. We develop different interactive protocols for the neural machine translation technology, namely, a prefix-based and a segment-based protocols. They are implemented by modifying the search space of the model. Moreover, we introduce mechanisms for achieving a fine-grained interaction while maintaining the decoding speed of the system. We carried out a wide experimentation that shows the potential of our contributions. The previous state of the art is overcame by a large margin and the current systems are able to react better to the human interactions. Next, we study how to improve a neural system using the data generated as a byproduct of this correction process. To this end, we rely on two main learning paradigms: online and active learning. Under the first one, the system is updated on the fly, as soon as a sentence is corrected. Hence, the system is continuously learning from the corrections, avoiding previous errors and specializing towards a given user or domain. A large experimentation stressed the adaptive systems under different conditions and domains, demonstrating the capabilities of adaptive systems. Moreover, we also carried out a human evaluation of the system, involving professional users. They were very pleased with the adaptive system, and worked more efficiently using it. The second paradigm, active learning, is devised for the translation of huge amounts of data, that are infeasible to being completely supervised. In this scenario, the system selects samples that are worth to be supervised, and leaves the rest automatically translated. Applying this framework, we obtained reductions of approximately a quarter of the effort required for reaching a desired translation quality. The neural approach also obtained large improvements compared with previous translation technologies. Finally, we address another challenging problem: visual captioning. It consists in generating a description in natural language from a visual object, namely an image or a video. We follow the sequence-to-sequence framework, under a a multimodal perspective. We start by tackling the task of generating captions of videos from a general domain. Next, we move on to a more specific case: describing events from egocentric images, acquired along the day. Since these events are consecutive, we aim to extract inter-eventual relationships, for generating more informed captions. The context-aware model improved the generation quality with respect to a regular one. As final point, we apply the intractive-predictive protocol to these multimodal captioning systems, reducing the effort required for correcting the outputs. / Section 5.4 describes an user evaluation of an adaptive translation system. This was done in collaboration with Miguel Domingo and the company Pangeanic, with funding from the Spanish Center for Technological and Industrial Development (Centro para el Desarrollo Tecnológico Industrial). [...] Most of Chapter 6 is the result of a collaboration with Marc Bolaños, supervised by Prof. Petia Radeva, from Universitat de Barcelona/CVC. This collaboration was supported by the R-MIPRCV network, under grant TIN2014-54728-REDC. / Peris Abril, Á. (2019). Interactivity, Adaptation and Multimodality in Neural Sequence-to-sequence Learning [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/134058 / TESIS
67

Optimización del proceso de gestión de flota para una empresa de transporte de carga por carretera usando Machine Learning, BI, GPS y SMS Gateway / Optimization of the fleet management process for a trucking company using Machine Learning, BI, GPS and SMS Gateway

Nuñez Velarde, Kenyi Guillermo, Pacheco Chávez, Philipp Gil 31 August 2021 (has links)
El presente trabajo de tesis tiene como objetivo presentar una solución de optimización al proceso “Gestión de flota” de una empresa dedicada al transporte de carga por carretera de mercancías en general. Para la arquitectura empresarial se utilizó el framework Zachman, que permitió realizar el análisis del negocio, su entorno, estructura y procesos, bajo la perspectiva del negocio como caja negra que necesita descifrarse. Lo cual permitió que se comprenda el propósito y los objetivos para la cual fue creado el negocio. Adicionalmente, se utilizó TOGAF y ADM, del resultado del análisis se observa que el macroproceso de “Gestión de Flota”, es uno de los procesos operativos de vital importancia para el negocio, pues es donde se administra los recursos operativos del negocio, también, es donde se evidenciará la problemática que será motivo de estudio, análisis y planteamiento de solución. Por otro lado, se usó la Guía PMBOK, para poder gestionar el desarrollo del proyecto, determinando el alcance de la investigación, así como, el análisis del negocio, la definición de la arquitectura empresarial, el análisis de la problemática, la ingeniería de los procesos, la propuesta solución, arquitectura de solución utilizando tendencias tecnológicas como GPS, SMS Gateway, Machine Learning y BI, por último, se diseñará el prototipado de la solución y arquitectura propuesta. Asimismo, se utilizará la gestión de riesgos para poder mitigar cualquier incidencia. / The objective of this thesis work is to present an optimization solution to the "Fleet Management" process of a company dedicated to the road freight transport of goods in general. For the business architecture, the Zachman framework was used, which allowed the analysis of the business, its environment, structure and processes, from the perspective of the business as a black box that needs to be deciphered. Which allowed the purpose and objectives for which the business was created to be understood. Additionally, we use TOGAF and ADM, from the result of the analysis it is observed that the macro-process of "Fleet Management" is one of the operational processes of vital importance for the business, since it is where the operational resources of the business are managed, it is also where the problem that will be the subject of study, analysis and solution proposal will be evidenced. On the other hand, the PMBOK Guide was used to manage the development of the project, determining the scope of the research, as well as the business analysis, the definition of the business architecture, the analysis of the problem, the engineering of the processes, the proposed solution, solution architecture using technological trends such as GPS, SMS Gateway, Machine Learning and BI, finally, the prototyping of the proposed solution and architecture will be designed. Likewise, risk management will be used to mitigate any incident. / Tesis
68

Sistema inteligente de detección de fraudes basado en un algoritmo con random forest para reducir los tiempos de evaluación de los siniestros del área de indemnizaciones en una empresa aseguradora a nivel mundial con sede en Perú / Intelligent fraud detection system based on an algorithm with random forest to reduce the evaluation times of claims in the compensation area in a worldwide insurance company based in Peru

Arangüena Proaño, Rocio Karin, Orellana Peñafiel, Miguel Angel 23 August 2021 (has links)
La presente tesis tiene como objeto de estudio una empresa internacional de seguros y propone la creación de un software que permita por medio de inteligencia artificial, y a través de machine learning, la evaluación de siniestros de los asegurados de la compañía. Actualmente la empresa tiene retrasos en la evaluación de siniestros por la falta de mano de obra calificada y con experiencia, además del incremento de solicitudes de indemnización a raíz de la pandemia del Covid-19. También, las regulaciones de la Superintendencia de banca, seguros y AFP obligan a las empresas aseguradoras a responder a los siniestros en un plazo de 30 días calendario. El evaluar el siniestro usando inteligencia artificial ayudará a la empresa a responder rápidamente al asegurado y así cumplir con las regulaciones del estado y brindar una experiencia grata con la compañía aseguradora. La propuesta de solución de esta presente tesis disminuirá los tiempos de respuesta ante siniestros, podrá detectar fraudes durante la evaluación y con ello permitirá disminuir los costos al necesitar menos personal para atender las solicitudes de indemnización de siniestro. / The present thesis has as object of study an international insurance company and proposes the creation of a software that allows by means of artificial intelligence, and through machine learning, the evaluation of insurance claims of the insured of the company. Currently the company has delays in the assessment of claim due to the lack of qualified and experienced workforce, in addition to the increase in requests for compensation because of the Covid-19 pandemic. Also, the regulations of the Superintendency of banking, insurance and AFP oblige insurance companies to respond to claims within 30 calendar days. Assessing the claim using artificial intelligence will help the company respond quickly to the insured and thus comply with state regulations and provide a pleasant experience. The solution proposal of this present thesis will reduce the response time to claims, it will be able to detect fraud during the evaluation and thus it will allow to reduce costs by requiring less personnel to attend requests of compensation claims. / Tesis
69

Desarrollo de una aplicación de análisis del mercado, basado en el procesamiento del lenguaje natural de la red social Twitter, con Machine Learning para predicción de éxito del lanzamiento de un nuevo producto / Development of an application of Market Analysis, based on the natural language processing of Social Networks, using Machine learning to predict the success of a new Product Launch

Fuentes Dávila Otani, Rommy Cecilia, Fuentes Dávila Otani, Karina Paola 10 March 2021 (has links)
El presente trabajo contempla el proceso de lanzamiento de los nuevos productos ofrecidos por la empresa Natural Corporation, quien se dedica a la importación de productos japoneses fabricados por los países de JAPÓN y CHINA. El objetivo general del proyecto desarrollar una aplicación móvil para el análisis del mercado para el lanzamiento de los nuevos productos y/o servicios, basado en el procesamiento del lenguaje natural de la red social Twitter con Aprendizaje autónomo para la toma de decisiones publicitarias. / This work explores the process of launching a new product offered by the company “Natural Corporation”, which core business is to import Japanese products manufactured by countries such as: JAPAN and CHINA. The general objective of the project is to develop a mobile application for market analysis of new products and / or services launch, based on the natural language processing of Twitter’s social network with Machine learning to apply accurate advertising decisions. / Tesis
70

Sistema inteligente para la predicción del precio diario de las acciones mineras en la Bolsa de Valores de New York usando un modelo híbrido de redes neuronales y máquina de soporte vectorial de regresión

Huillca Espillico, Jessica Gabriela, Quispe Álvarez, Renzo Miguel January 2019 (has links)
Predecir el precio de una acción es un tema muy importante en el mundo financiero, debido a que mediante ella se puede generar una estrategia de inversión y obtener muchas ganancias. El comportamiento de los precios de las acciones sigue una distribución muy compleja, siendo afectadas por factores internos de las compañías, tales como decisiones gerenciales, y también por factores externos, como el estado del mercado en un momento dado. El sector minero es considerado uno de los sectores más volátiles dentro de la bolsa, y frecuentemente atrae a los inversionistas más arriesgados que desean obtener rápidas ganancias; sin embargo no se han encontrado estudios que se hayan enfocado en este sector. La precisión de los modelos de machine learning dependen de la correcta elección de las variables y técnicas a utilizar, así como también del pre procesamiento que se realice a la data antes de ser ingresada al modelo, es por esto que en el presente trabajo se realizó una encuesta a expertos de inversión en la bolsa de valores sobre las variables influyentes en el comportamiento de una acción minera, producto de ello se identificaron variables como el precio de los metales, precio de los índices y precio del dólar; las cuales, junto a las variables fundamentales y técnicas, participaron en la selección de variables mediante el cálculo del coeficiente de correlación de Pearson en cada una de ellas. Las variables resultantes fueron ingresadas posteriormente al modelo híbrido propuesto, donde las salidas de cada una de las técnicas de machine learning utilizadas (redes neuronales artificiales, máquinas de soporte vectorial para regresión y red neuronal de base radial) formaban parte de la entrada hacia una red neuronal artificial, considerada como técnica principal debido a que alcanzaba los mejores resultados en la fase experimental. Para validar el sistema se consideró el dataset de las empresas Buenaventura, Southern Copper, Fortuna Silver Mines, Barrick Gold Corporation y BHP Billiton Limited; que alcanzaron un MAPE de 1.666, 1.470, 1.375, 2.567 y 0.998 respectivamente, y un promedio de error de 1.615%, lo que demuestra una gran mejora con respecto al 5.4% de error obtenido en el sector más cercano (petrolero). / Tesis

Page generated in 0.101 seconds