• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 22
  • Tagged with
  • 64
  • 64
  • 61
  • 32
  • 31
  • 27
  • 26
  • 21
  • 17
  • 17
  • 17
  • 17
  • 17
  • 16
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Agrupamiento de textos basado en la generación de Embeddings

Cachay Guivin, Anthony Wainer 19 August 2022 (has links)
Actualmente, gracias a los avances tecnológicos, principalmente en el mundo de la informática se logra disponer de una gran cantidad de información, que en su mayoría son una composición de signos codificados a nivel computacional que forman una unidad de sentido, como son los textos. Debido a la variabilidad y alta volumetría de información navegable en internet hace que poder agrupar información veraz sea una tarea complicada. El avance computacional del lenguaje de procesamiento natural está creciendo cada día para solucionar estos problemas. El presente trabajo de investigación estudia la forma como se agrupan los textos con la generación de Embeddings. En particular, se centra en usar diferentes métodos para aplicar modelos supervisados y no supervisados para que se puedan obtener resultados eficientes al momento de toparse con tareas de agrupamiento automático. Se trabajó con cinco Datasets, y como resultado de la implementación de los modelos supervisados se pudo determinar que el mejor Embedding es FastText implementado con Gensim y aplicado en modelos basados en boosting. Para los modelos no supervisados el mejor Embedding es Glove aplicado en modelos de redes neuronales con AutoEncoder y capa K-means. / Nowadays, thanks to technological advances, mainly in the world of information technology, a large amount of information is available, most of which is a composition of signs encoded at a computational level that form a unit of meaning, such as texts. Due to the variability and high volume of navigable information on the Internet, grouping truthful information is a complicated task. The computational advance of natural language processing is growing every day to solve these problems. The present research work studies the way texts are clustered with the generation of Embeddings. In particular, it focuses on using different methods to apply supervised and unsupervised models so that efficient results can be obtained when encountering automatic clustering tasks. Five Datasets were worked with, and as a result of the implementation of the supervised models it was determined that the best Embedding is FastText implemented with Gensim and applied in models based on boosting. For the unsupervised models the best Embedding is Glove applied in neural network models with AutoEncoder and K-means layer.
32

Implementación de chatbots, migraciones y lago de datos en AWS

Ávila Flores, Patricio José 13 February 2024 (has links)
Desde el momento del egreso en julio del 2020, se ha ejercido labores en dos consultoras de servicios informáticos. Primero, en una consultora canadiense llamada Rules Cube que se enfoca en el desarrollo de aplicaciones en Pega. Segundo, en una consultora peruana llamada Tuxpas, que se especializa en proyectos de implementación de chatbots en la plataforma Workplace, y construcción de lagos de datos y migraciones en AWS. En Rules Cube con el rol de practicante profesional de TI se apoyó en el desarrollo de una aplicación móvil de reconocimiento de tickets y boletas de compra por un período de cuatro meses. El objetivo de esta aplicación era poder obtener con fotos rápidamente todos los gastos en los que se incurre día a día. Como parte de las herramientas se utilizó Pega, Sharepoint, y diversos aplicativos de la misma empresa. En Tuxpas es donde se ha ejercido la gran mayoría del tiempo desde el egreso. En el primer año en la compañía con el rol de desarrollador de software se formó parte de un equipo que implementó y desplegó chatbots en la red social para empresas Workplace para reconocer a colaboradores y conocer el estado del clima laboral, en un cliente de venta de productos de beleza, información que resultaba vital para la gerencia para conocer la retroalimentación de trabajadores de primera línea. En el segundo y tercer año, ahora con el rol de arquitecto de software y con la responsabilidad de liderar proyectos, es que se han llevado a cabo diseños y desarrollos de diversos lagos de datos y migraciones. Una de las migraciones más resaltantes fue realizada para un cliente del sector salud y que implicó el movimiento de toda su infraestructura y aplicaciones hacia la nube de AWS. Esto incrementó enormemente la disponibilidad de las aplicaciones y gracias a ello se redujo el tiempo de baja. Asimismo, se pudieron refactorizar las aplicaciones para que puedan ser alojadas en servicios auto-escalables. Más adelante, se llevó a cabo un lago de datos que centralizaba toda la información generada en las diversas fuentes del cliente, perteneciente al sector educativo. Esto permitió poder tener una misma estructura para todos los datos, que en el origen se encontraba con distintas nomenclaturas que hacían más difícil una visión completa de los datos generados. Además, permitió agilizar la creación y ejecución de procesos analíticos para toda el área de Inteligencia de Negocios.
33

Metaphor identification for Spanish sentences using recurrent neural networks

Alvarez Mouravskaia, Kevin 26 June 2020 (has links)
Metaphors are an important literary figure that is found in books or and daily use. Nowadays it is an essential task for Natural Language Processing (NLP), but the dependence of the context and the lack corpus in other languages make it a bottleneck for some tasks such as translation or interpretation of texts. We present a classification model using recurrent neural networks for metaphor identification in Spanish sentences. We tested our model and his variants on a new corpus in Spanish and compared it with the current baseline using an English corpus. Our best model reports an F-score of 52.5% for Spanish and 60.4% for English. / Trabajo académico
34

Revisión sistemática sobre la aplicación de ontologías de dominio en el análisis de sentimiento

Olivares Poggi, César Augusto 26 November 2016 (has links)
El análisis de sentimiento es un área de creciente investigación en los campos del procesamiento de lenguaje natural y la recuperación de información. En los últimos años ha habido un aumento en la aplicación de técnicas semánticas en el análisis de sentimiento, en particular con el apoyo de la aplicación de ontologías de dominio. Sin embargo, en la literatura actual no se cuenta con un estudio que reporte de manera sistemática los beneficios alcanzados con la aplicación de ontologías de dominio al análisis de sentimiento. Esta revisión sistemática tiene por objetivos realizar dicha síntesis, reportar el grado de generalización de las investigaciones realizadas, verificar el aprovechamiento de la riqueza expresiva de las ontologías de dominio y señalar el estado del arte actual en la representación de las emociones humanas por medio de ontologías de dominio en su aplicación al análisis de sentimiento. Se identificó 9 distintos problemas del análisis del sentimiento a los que se aplicó ontologías de dominio y un total de 22 beneficios de dicha aplicación. Los beneficios más reportados son: (1) el soporte para una representación estructurada de las opiniones y la vinculación de datos; (2) mayor precisión y exhaustividad en la clasificación de la polaridad; y (3) soporte para la representación de modelos emocionales. Como investigación futura se sugiere profundizar en el empleo de ontologías de dominios para analizar el sentimiento a nivel de conceptos, modelar el proceso de análisis de sentimiento, estandarizar la elaboración de ontologías de productos e integrar diversos modelos emocionales, así como aprovechar mejor la expresividad semántica y capacidad de razonamiento de las ontologías de dominio. / Tesis
35

Sistemas de diálogo basados en modelos estocásticos

Torres Goterris, Francisco 06 May 2008 (has links)
En la presente tesis, titulada Sistemas de diálogo basados en modelos estocásticos , se expone el estado del arte en el área de los sistemas de diálogo y se presenta el trabajo realizado en el diseño e implementación de los módulos de un sistema de diálogo determinado. La tesis se centra en el estudio de la gestión de diálogo desde una aproximación estadística. La tesis aporta el desarrollo de un sistema de diálogo completo (con entrada y salida de texto, en lengua española, y para una tarea de dominio semántico restringido, la definida en el proyecto de investigación BASURDE). Dicho sistema está constituido por los módulos de comprensión del lenguaje natural, de gestión del diálogo y de generación de respuestas en lenguaje natural. Dado el objetivo central de la tesis, el desarrollo del módulo gestor de diálogo ha sido el principal trabajo y, en consecuencia, es expuesto con la máxima amplitud en la presente memoria. El limitado tamaño del corpus de diálogos de la tarea BASURDE ha supuesto una severa dificultad en el desarrollo de un gestor de diálogo basado exclusivamente en modelos estadísticos. El módulo gestor de diálogo finalmente implementado determina su estrategia de diálogo mediante la combinación de varias fuentes de conocimiento: unas de carácter estocástico, los modelos aprendidos a partir del corpus; otras de arácter heurístico, reglas que incorporan conocimiento pragmático y semántico, ya sea genérico o específico de la tarea. Por último, se ha considerado la simulación de los usuarios como una técnica lternativa para fines como la evaluación del comportamiento del sistema de diálogo, la ampliación del corpus mediante diálogos sintéticos, o el aprendizaje dinámico de los modelos estocásticos de diálogo. Se han diseñado e implementado los correspondientes módulos simuladores de usuario, estudiándose las posibilidades de esta técnica.objetivo central de la tesis, el desarrollo del módulo gestor de diálogo ha sido el principal trabajo y, en onsecuencia / Torres Goterris, F. (2006). Sistemas de diálogo basados en modelos estocásticos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1901 / Palancia
36

Una aproximación a la desambiguación del sentido de las palabras basada en clases semánticas y aprendizaje automático

Izquierdo Beviá, Rubén 17 September 2010 (has links)
No description available.
37

EMOTIBLOG: a model to learn subjetive information detection in the new textual genres of the web 2.0 -a multilingual and multi-genre approach

Boldrini, Ester 23 January 2012 (has links)
No description available.
38

On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism

Barrón Cedeño, Luis Alberto 08 June 2012 (has links)
Barrón Cedeño, LA. (2012). On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16012 / Palancia
39

Modelo de medición de desempeño de servicios financieros en Perú a través de análisis de sentimiento utilizando métodos de decisiones multicriterio

Cueva Mendoza, Araceli Yoselín, Cueva Mendoza, César Blademir, Huacac Huañec, Judith Cathy, Junco Navarro, Ananda Adelaida 09 August 2023 (has links)
El presente trabajo de investigación tuvo como objetivo establecer un modelo de medición de enfoque cuantitativo, puesto que se busca resolver un problema práctico a partir de la teoría; para luego, brindar desempeño de servicios financieros haciendo uso de una de las técnicas de procesamiento de lenguaje natural (PLN) como es el análisis de sentimiento que, complementado con un método de decisiones multicriterio (MCDM), permite realizar una evaluación de productos o servicios ofrecidos por los cuatro principales bancos de Perú, analizando opiniones que expresan sentimientos positivos, negativos o neutrales en la red social Twitter. La investigación permitió identificar un conjunto de aspectos o criterios a partir de los cuales se evalúa la polaridad del sentimiento expresada en los tuits, generando un consolidado de tablas de puntuación, para finalmente evaluar el desempeño de cada entidad bancaria según los aspectos identificados. La investigación se estableció dentro de un marco de diseño como una investigación aplicada, bajo una fuente de información alternativa que soporte la toma de decisión de un cliente bancario al momento de contratar un servicio financiero, de tal manera que se pueda mejorar su satisfacción. Para la construcción del modelo se evaluaron 15,546 tuits de los que se escogieron 5,276 en los cuales se menciona al menos un aspecto. Dicho conjunto de datos se evaluó con métodos de polarización de sentimiento como Stanza, VADER, TextBlob y BETO (BERT) y; posteriormente, se utilizó el método MCDM-VIKOR para proporcionar información adicional que permita determinar la mejor opción de servicio a contratar. Los resultados obtenidos arrojan que el mejor método para determinar la polaridad de los tuits es BETO, logrando un nivel de exactitud de 88%, además de verificar que tanto BETO como VIKOR cumplen con las condiciones de aceptabilidad definidas por los métodos, logrando con ello identificar de manera adecuada la mejor alternativa de servicio. / This study aims to create a model for measuring the performance of financial services using Natural Language Processing (NLP) techniques like Sentiment Analysis (SA) and a Multicriteria Decision Method. (MCDM) enables the evaluation of products or services offered by Peru's four major banks by analyzing positive, negative, or neutral opinions expressed on the social network Twitter. The study identifies a set of aspects or criteria for scoring the sentiment expressed in tweets, generates a consolidated score table, and finally evaluates the performance of each banking entity based on the identified aspects. The research was established within a design framework as applied research, using a quantitative approach, since it seeks to solve a practical problem based on the theory and then provide an alternative source of information that supports a bank client's decision-making when hiring a financial service to improve satisfaction. For the model's construction, 15,546 tweets were evaluated, with only 5,276 chosen that mentioned at least one aspect. The data set was analyzed using sentiment polarization methods such as Stanza, VADER, TextBlob and BETO (BERT), and then the MCDM VIKOR provides additional information to determine the best service option to contract. The results obtained show us that the best method to determine the polarity of the tweets is BETO, achieving an accuracy level of 88%, in addition to verifying that both BETO and VIKOR meet the acceptability conditions defined by the methods; achieving this adequately resolve the best service alternative.
40

Comprensión y generación de lenguaje natural en un sistema de diálogo usando inteligencia artificial para servicios telefónicos de información de cines

Mesones Barrón, Carlos Enrique 09 May 2011 (has links)
El presente documento es resultado de la investigación sobre automatización inteligente - comprensión y generación de lenguaje natural- en un Sistema de Diálogo, para optimar el servicio de atención al cliente actualmente brindado por un operador vía telefónica.

Page generated in 0.0644 seconds