Spelling suggestions: "subject:"lenguaje natural"" "subject:"lenguajes natural""
41 |
ExpertTI : an knowledge system for intelligent service desks using free textBello Ruiz, Alejandro Toribio, Melgar, Andrés, Pizarro, Daniel 17 April 2017 (has links)
When many users consult service desks simultaneously, these
typically saturate. This causes the customer attention is delayed more
than usual. The service is perceived as lousy from the point of view of
the customer. Increase the amount of human agents is a costly process
for organizations. In addition, the amount of sta turnover in this type
of service is very high, which means make frequent training. All this has
motivated the design of a knowledge-based system that automatically
assists both customers and human agents at the service desk. Web technology
was used to enable clients to communicate with a software agent
via chat. Techniques of Natural Language Processing were used in order
the software agent understands the customer requests. The domain
knowledge used by the software agent to understand customer requests
has been codi ed in an ontology. A rule-based expert system was designed
to perform the diagnostic task. This paper presents a knowledge-based
system allowing client to communicate with the service desk through a
chat system using free text. A software agent automatically executes the
customer request. The agent software attempts to reach a conclusion using
expert system and ontology. If achieved success, returns the response
to the customer, otherwise the request is redirected to a human agent.
Evaluations conducted with users have shown an improvement in the
attention of service desks when the software developed is used. On the
other hand, since the most frequent requests are handled automatically,
the workload of human agents decreases considerably. The software has
also been used to train new human agents which facilitates and reduces
the cost of training. / Tesis
|
42 |
Modelo de medición de desempeño de servicios financieros en Perú a través de análisis de sentimiento utilizando métodos de decisiones multicriterioCueva Mendoza, Araceli Yoselín, Cueva Mendoza, César Blademir, Huacac Huañec, Judith Cathy, Junco Navarro, Ananda Adelaida 09 August 2023 (has links)
El presente trabajo de investigación tuvo como objetivo establecer un modelo de medición de
enfoque cuantitativo, puesto que se busca resolver un problema práctico a partir de la teoría;
para luego, brindar desempeño de servicios financieros haciendo uso de una de las técnicas
de procesamiento de lenguaje natural (PLN) como es el análisis de sentimiento que,
complementado con un método de decisiones multicriterio (MCDM), permite realizar una
evaluación de productos o servicios ofrecidos por los cuatro principales bancos de Perú,
analizando opiniones que expresan sentimientos positivos, negativos o neutrales en la red
social Twitter. La investigación permitió identificar un conjunto de aspectos o criterios a
partir de los cuales se evalúa la polaridad del sentimiento expresada en los tuits, generando un
consolidado de tablas de puntuación, para finalmente evaluar el desempeño de cada entidad
bancaria según los aspectos identificados. La investigación se estableció dentro de un marco
de diseño como una investigación aplicada, bajo una fuente de información alternativa que
soporte la toma de decisión de un cliente bancario al momento de contratar un servicio
financiero, de tal manera que se pueda mejorar su satisfacción. Para la construcción del
modelo se evaluaron 15,546 tuits de los que se escogieron 5,276 en los cuales se menciona al
menos un aspecto. Dicho conjunto de datos se evaluó con métodos de polarización de
sentimiento como Stanza, VADER, TextBlob y BETO (BERT) y; posteriormente, se utilizó
el método MCDM-VIKOR para proporcionar información adicional que permita determinar
la mejor opción de servicio a contratar. Los resultados obtenidos arrojan que el mejor método
para determinar la polaridad de los tuits es BETO, logrando un nivel de exactitud de 88%,
además de verificar que tanto BETO como VIKOR cumplen con las condiciones de
aceptabilidad definidas por los métodos, logrando con ello identificar de manera adecuada la
mejor alternativa de servicio. / This study aims to create a model for measuring the performance of financial services using
Natural Language Processing (NLP) techniques like Sentiment Analysis (SA) and a
Multicriteria Decision Method. (MCDM) enables the evaluation of products or services
offered by Peru's four major banks by analyzing positive, negative, or neutral opinions
expressed on the social network Twitter. The study identifies a set of aspects or criteria for
scoring the sentiment expressed in tweets, generates a consolidated score table, and finally
evaluates the performance of each banking entity based on the identified aspects. The
research was established within a design framework as applied research, using a quantitative
approach, since it seeks to solve a practical problem based on the theory and then provide an
alternative source of information that supports a bank client's decision-making when hiring a
financial service to improve satisfaction. For the model's construction, 15,546 tweets were
evaluated, with only 5,276 chosen that mentioned at least one aspect. The data set was
analyzed using sentiment polarization methods such as Stanza, VADER, TextBlob and
BETO (BERT), and then the MCDM VIKOR provides additional information to determine
the best service option to contract. The results obtained show us that the best method to
determine the polarity of the tweets is BETO, achieving an accuracy level of 88%, in addition
to verifying that both BETO and VIKOR meet the acceptability conditions defined by the
methods; achieving this adequately resolve the best service alternative.
|
43 |
Desarrollo de recursos léxicos multi-dialécticos para el quechuaMelgarejo Vergara, Nelsi Belly 13 March 2023 (has links)
Las lenguas de bajos recursos como el quechua no cuentan con recursos léxicos a pesar de
ser importantes para contribuir en las investigaciones y en el desarrollo de muchas herramientas
de Procesamiento de Lenguaje Natural (NLP) que se benefician o requieren de recursos de este
tipo, de esa forma poder contribuir en la preservación de la lengua. El objetivo de esta investigación
es construir una WordNet (base de datos léxica) para las variedades quechua sureño,
central, amazónico y norteño, y un un etiquetado gramatical de secuencias de palabras (POS
tagging) para la variedad del quechua sureño. Para el desarrollo de esta investigación se recopiló
información de los diccionarios y se creó corpus paralelo quechua - español, se implementó
un algoritmo de clasificación para alinear el sentido de las palabras con el synset del significado
en español para cada variedad de la lengua quechua y finalmente se creó un modelo de
etiquetación gramatical basado en el modelo BERT. El score obtenido para el POS tagging de
la variedad quechua sureño fue 0.85% y para el quechua central 0.8 %.
|
44 |
On the Mono- and Cross-Language Detection of Text Re-Use and PlagiarismBarrón Cedeño, Luis Alberto 08 June 2012 (has links)
Barrón Cedeño, LA. (2012). On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16012
|
45 |
Las Tecnologías del Lenguaje Humano como herramienta de mitigación de la violencia en redes socialesBotella-Gil, Beatriz 16 February 2024 (has links)
La irrupción de Internet ha transformado radicalmente la forma en que nos relacionamos y comunicamos. Esta revolución ha trascendido las barreras físicas y temporales, permitiéndonos conectar con personas de todo el mundo sin importar la distancia o las diferencias horarias. Las redes sociales, en particular, han forjado un espacio virtual que replica gran parte de nuestras actividades cotidianas, dando forma a un mundo digital que ha impactado incluso en el ámbito laboral. El fenómeno de las redes sociales ha creado un paralelismo entre nuestra vida real y la virtual. La facilidad con la que podemos acceder a este universo virtual ha redefinido la naturaleza misma de nuestras relaciones interpersonales. Estas plataformas de comunicación representan un avance significativo para las relaciones personales; sin embargo, nos enfrentamos a un problema que aún necesitamos gestionar. La publicación de mensajes violentos son manifestaciones perjudiciales que, en muchos casos, encuentran su origen en la relativa impunidad que ofrece el anonimato digital. Este fenómeno plantea desafíos significativos para la sociedad y requiere respuestas efectivas a nivel individual, comunitario y legislativo. El anonimato en línea otorga a los individuos una máscara virtual detrás de la cual pueden ocultarse mientras participan en comportamientos violentos. Esta falta de responsabilidad personal puede exacerbar la agresividad en las interacciones, ya que las consecuencias directas parecen menos tangibles. La ausencia de empatía, a menudo atribuida a la despersonalización facilitada por las pantallas, contribuye al aumento de comportamientos irrespetuosos y violentos. La impunidad de los actos en el entorno virtual presenta un desafío adicional. La dificultad para rastrear y atribuir responsabilidad a los perpetradores de actos violentos en línea puede disuadir la acción disciplinaria. Esto crea un ambiente donde los límites éticos y sociales pueden traspasarse sin consecuencias visibles. El control de la violencia en línea requiere una respuesta colectiva y multidimensional. Educación, concienciación, políticas efectivas y tecnologías avanzadas son herramientas fundamentales para abordar este desafío y construir un entorno digital que fomente la empatía, el respeto y la seguridad. El Procesamiento del Lenguaje Natural (PLN) emerge como un pilar esencial en la lucha contra la violencia en línea. En un entorno digital saturado de información, el PLN permite analizar y comprender el lenguaje humano de manera automatizada, desempeñando un papel fundamental en la detección y prevención de comportamientos violentos. La creación de recursos específicos, como lexicones que contienen términos relacionados con la violencia, se convierte en una herramienta valiosa. Estos recursos actúan como indicadores para los algoritmos, permitiéndoles identificar patrones lingüísticos asociados con mensajes agresivos o dañinos. Además, contar con guías de anotación para la creación de corpus que proporcionen ejemplos específicos, sirve como base para el entrenamiento de los sistemas, mejorando su capacidad para reconocer contextos y matices. La capacidad del PLN para procesar grandes volúmenes de datos de texto de manera rápida y eficiente permite una detección temprana de la violencia en línea. Los algoritmos entrenados pueden analizar conversaciones en tiempo real, identificando posibles amenazas y comportamientos problemáticos antes de que escalen. Además, la adaptabilidad del PLN lo convierte en una herramienta crucial para abordar la evolución constante de las formas de violencia en línea. A medida que las tácticas y los patrones de comportamiento cambian, los sistemas de PLN pueden ajustarse y aprender de nuevas manifestaciones de violencia, manteniéndose relevantes y efectivos. Para contribuir con la detección de mensajes violentos en redes sociales, esta investigación presenta un recurso para la obtención de insultos y expresiones negativas (Fiero) resultando en un lexicón (SHARE), una guía de anotación (VIL) detallada para la elaboración de un corpus y un corpus con 6211 tuits (VILLANOS). Además, se desarrolla la propuesta de una metodología de anotación semiautomática (HITL) que agiliza la tarea del experto anotador reduciendo el tiempo empleado y se expone la evaluación extrínseca de nuestras suposiciones fundamentales. Esta validación se materializó a través de una serie de experimentos que se detallan en este trabajo. El trabajo realizado presenta valiosas aportaciones para enfrentar el desafío de la detección de mensajes violentos en redes sociales, utilizando técnicas de PLN desde una perspectiva multidisciplinaria. Este enfoque implica la integración de conocimientos y metodologías provenientes de diferentes campos, como la psicología, la sociología, la lingüística y la informática. Esta sinergia de perspectivas enriquece la comprensión del fenómeno de la violencia en redes sociales, considerando no sólo los aspectos lingüísticos sino también los sociales, psicológicos y culturales que influyen en su manifestación. / El trabajo de investigación desarrollado en esta tesis forma parte de los proyectos I+D+i COOLANG.TRIVIAL: “Recursos tecnológicos para análisis viral inteligente mediante PLN” (PID2021-122263OB-C22) financiado por MCIN/AEI/10.13039/501100011033/ y “FEDER Una manera de hacer Europa”, así como del proyecto I+D+i SOCIALFAIRNESS.SOCIALTRUST: “Análisis de la confiabilidad en medios digitales” (PDC2022-133146-C22) financiado por MCIN/AEI/10.13039/501100011033/ y por la “Unión Europea NextGenerationEU/PRTR”. Este trabajo también ha sido financiado por la Generalitat Valenciana (Conselleria d’Educació, Investigació, Cultura i Esport) a través del Proyecto: NL4DISMIS: TLHs para una Sociedad Inclusiva Igualitaria y Accesible (CIPROM/2021/021).
|
46 |
Representación vectorial de relación de hiponimia e hiperonimia en españolUtia Deza, Jose Vicente 03 September 2020 (has links)
Actualmente, gracias a Internet y a la Web se dispone de información casi ilimitada, la cual está representada a nivel de textos en su mayoría. Así, dado que acceder a estos textos en su mayoría es de libre acceso, nace el interés por su manipulación de una manera automatizada para poder extraer información que se considere relevante. El presente trabajo de investigación se ubica dentro de la detección automática de relaciones léxicas entre palabras, que son relaciones que se establecen entre los significados de las palabras tal como se consigna en el diccionario. En particular, se centra en la detección de relaciones de hiponimia e hiperonimia, debido a que éstas son relaciones de palabras en las que una de ellas engloba el significado de otra o viceversa, lo cual podría considerarse como categorización de palabras. Básicamente, el método propuesto se basa en la manipulación de una representación vectorial de palabras denominado Word Embeddings, para resaltar especialmente áquellas que tengan relación jerárquica, proceso que se realiza a partir de textos no estructurados. Tradicionalmente, los Word Embeddings son utilizados para tareas de analogía, es decir, para detectar relaciones de sinonimia, por lo que se considera un poco más complejo utilizar estos vectores para la detección de relaciones jerárquicas (hiperonimia e hiponimia), por consecuencia se proponen métodos adicionales para que, en conjunto con los Word Embeddings, se puedan obtener resultados eficientes al momento de detectar las relaciones entre distintos pares de palabras. / Currently, thanks to the Internet and Web, almost unlimited information is available, which is mostly represented at text level. Thus, given that access to these texts is mostly freely available, interest in their manipulation is born in an automated way to extract information that is considered relevant. The present research work is located within the automatic detection of lexical relations between words, which are relations that are established between the meanings of words as it is stated in the dictionary. In particular, it focuses on the detection of hyponymy and hyperonymy relationships, because these are word relationships in which one of them encompasses the meaning of another or vice versa, which could be considered as categorization of words. Basically, the proposed method is based on the manipulation of Word Embeddings to highlight especially words that have a hierarchical relationship, a process that is carried out from unstructured texts. Traditionally, Word Embeddings are used for analogy tasks, that is, to detect synonymy relationships, so it is considered a bit more complex to use these vectors for the hierarchical relationships (hyperonimia and hyponymy) detection, therefore, additional methods are proposed, so in conjunction with the Word Embeddings, efficient results can be obtained when detecting the relationships between different pairs of words. / Tesis
|
47 |
OntoFIS: tecnología ontológica en el dominio farmacoterapéuticoRomá-Ferri, María Teresa 13 November 2009 (has links)
En la actualidad, en el ámbito sanitario y, en concreto, en el dominio farmacoterapéutico existen múltiples sistemas de información (SI). Cada uno de estos SI representan el conocimiento sobre los medicamentos de formas diversas. Pero, en la práctica, para poder utilizarlos, los profesionales de la salud (médicos, enfermeras y farmacéuticos) deben de conocer el contenido y la forma de acceder a cada uno de estos SI, para obtener la información que apoye su toma de decisión sobre la terapéutica farmacológica. Para ello, los profesionales deben de invertir un tiempo, del que muchas veces no disponen, y demorar la atención directa. El reto está en que los SI sean capaces de compartir la información entre ellos, es decir, en resolver los problemas de interoperabilidad semántica. Para conseguir la interoperabilidad entre SI se han propuesto, como una opción, las tecnologías semánticas y, entre ellas, las ontologías. Las ontologías son un tipo de representación del conocimiento, basado en conceptos, que facilita la compresión del significado y del contexto de la información. A partir de estas premisas y del vacío detectado en la representación de los medicamentos, el trabajo presentado, en esta Tesis doctoral, aborda la definición de una propuesta metodológica y tecnológica para la construcción de la Ontología Farmacoterapéutica e Información para el Seguimiento, OntoFIS. La propuesta metodológica aplicada emplea el modelo de datos UML y OWL DL para el modelado de OntoFIS. La propuesta tecnológica se fundamenta en el uso de un plug-in para las transformaciones directas entre el diagrama de clases UML y el modelo de datos OWL DL. Estas propuestas pueden ser aplicadas a cualquier otro escenario y facilitan la reutilización de los diseños de aplicaciones Web para la obtención de ontologías. La aportación más significativa es que, la ontología construida, contribuye a resolver el problema de la carencia de una fuente de conocimiento específica en lengua castellana. La ontología OntoFIS está poblada con casi 55.000 instancias. Entre éstas destacan, por su valor terminológico, las correspondientes a las denominaciones de los medicamentos comercializados en España (17.204), los componentes farmacológicos (19.627), los nombres genéricos de principios activos (4.456), las denominaciones de grupos químicos (3.200) y las denominaciones de uso terapéutico (1.380). Asimismo, el modelo de conocimiento representado en OntoFIS, a partir de los resultados de la evaluación obtenidos, permite hacer inferencias, respecto al conocimiento del dominio farmacoterapéutico, válidas, consistentes y ajustadas a las necesidades de los profesionales de la salud.
|
48 |
Un entorno para la extracción incremental de conocimiento desde texto en lenguaje naturalValencia García, Rafael 22 April 2005 (has links)
La creciente necesidad de enriquecer la Web con grandes cantidades de ontologías que capturen el conocimiento del dominio ha generado multitud de estudios e investigaciones en metodologías para poder salvar el cuello de botella que supone la construcción manual de ontologías. Esta necesidad ha conducido a definir una nueva línea de investigación denominada Ontology Learning. La solución que proponemos en este trabajo se basa en el desarrollo de un nuevo entorno para extracción incremental de conocimiento desde texto en lenguaje natural. Se ha adoptado el punto de vista de la ingeniería ontológica, de modo que el conocimiento adquirido se representa por medio de ontologías. Este trabajo aporta un nuevo método para la construcción semiautomática de ontologías a partir de textos en lenguaje natural que no sólo se centra en la obtención de jerarquías de conceptos, sino que tiene en cuenta también un amplio conjunto de relaciones semánticas entre conceptos. / The need for enriching fue Web with large amounts of ontologies has increased. This need for domain models has generated several studies and research on methodologies capable of overcoming the bottleneck provoked by fue manual construction of ontologies. This need has led towards a new research area to obtain semiautomatic methods to build ontologies, which is called, Ontology Learning. The solution proposed in this work is based on the development of a new environment for incremental knowledge extraction from naturallanguage texts. F or this purpose, an ontological engineering perspective has been adopted. Hence, fue knowledge acquired through fue developed environment is represented by means of ontologies. This work presents a new method for fue semiautomatic construction of ontologies from naturallanguage texts. This method is not only based on obtaining hierarchies of concepts, but it uses a set of semantic relations between concepts.
|
49 |
Abordando el tratamiento automático de la desinformación: modelado de la confiabilidad en noticias mediante Procesamiento del Lenguaje NaturalBonet-Jover, Alba 20 March 2023 (has links)
La llegada de Internet y de las nuevas tecnologías dio lugar al nacimiento de la era de la información, una era que ha conectado a la sociedad de forma global y le ha permitido acceder libremente a la información digital. Con esta facilidad de acceso, cualquier persona, aún sin ser experta en la materia, puede publicar y acceder a la información sin ningún coste, lo que ha ocasionado un exceso de información no contrastada que muchas veces oculta intenciones como el engaño, la manipulación o los fines económicos. De esa forma, la era de la información se ha transformado en la era de la desinformación. La incesante necesidad de estar informados ha motivado que el consumo de la información se convierta en una rutina, ya sea siguiendo las últimas noticias en portales digitales o leyendo a diario publicaciones de personas afines. Antes, la información viajaba en forma de sonido a través de la radio o en forma de tinta a través de los periódicos, pero ahora una desmedida cantidad de información se propaga a través de algoritmos. Las tecnologías han propiciado la sobreabundancia de información, así como la propagación de noticias falsas y bulos, hasta tal punto que resulta imposible contrastar y procesar manualmente tales volúmenes de desinformación en tiempo real. No obstante, lo que se considera un problema puede convertirse en una solución, pues igual que los algoritmos y el entorno digital son los causantes de la viralización de la información falsa, estos pueden ser a su vez los detectores de la desinformación. Es aquí donde el Procesamiento del Lenguaje Natural desempeña un papel clave en la relación humano-máquina, modelando el lenguaje humano a través de la comprensión y generación automática del lenguaje, y entrenando modelos a través de la retroalimentación del experto. El trabajo coordinado entre la ingeniería computacional y la lingüística es decisivo a la hora de frenar el fenómeno de la desinformación. Son necesarias las dos perspectivas para abordar la detección automática de la forma más completa y precisa posible, pues el análisis lingüístico permite detectar y estudiar patrones textuales que hacen que la información de una noticia sea o no sea confiable, mientras que el entorno tecnológico se encarga de automatizar la detección de los patrones anotados mediante el entrenamiento de algoritmos de aprendizaje automático. Específicamente para esta tarea, donde la noticia es el objeto de estudio, el análisis a nivel periodístico también es fundamental. La noticia suele presentar una estructura determinada, técnica conocida como la Pirámide Invertida, donde la información sigue un orden de relevancia concreto con el fin de captar la atención del lector. Además, suele organizar el contenido de forma precisa y completa respondiendo a seis preguntas clave, conocidas como las 5W1H. Estas dos técnicas periodísticas permiten construir una noticia siguiendo unos estándares de calidad y son la base de la anotación de la presente investigación. Para contribuir a la tarea de la detección de desinformación, la presente investigación presenta dos guías de anotación de grano fino diseñadas para anotar tanto la veracidad (guía FNDeepML) como la confiabilidad (guía RUN- AS) de las noticias. Además, se presentan los dos corpus obtenidos y anotados con las guías de anotación, uno de ellos compuesto por 200 noticias verdaderas y falsas (corpus FNDeep) y otro que incluye 170 noticias confiables y no confiables (corpus RUN), ambos en español. Un extenso marco de evaluación se lleva a cabo para validar tanto la calidad de la anotación como la de los recursos, obteniendo resultados prometedores que muestran que el entrenamiento con las características de la anotación mejoran notablemente los modelos de predicción. Asimismo, otras dos aportaciones de la tesis relacionadas más bien con el proceso de anotación y de detección son, por un lado, la propuesta de una metodología semiautomática de anotación que agiliza la tarea del experto anotador y, por otro lado, una arquitectura para la detección de desinformación basada en una capa de estructura y otra de predicción. Las aportaciones de este trabajo permiten abordar una parte del problema de la detección de la desinformación aplicando técnicas de Procesamiento del Lenguaje Natural, pero desde un enfoque lingüístico, lo que permite profundizar en el estudio del problema desde su raíz. El conocimiento profundo del lenguaje de las noticias, y específicamente el modelado de un lenguaje propio de la desinformación, permite no solo dar un paso más en su detección, sino además justificar la confiabilidad de la noticia. / Tesis financiada por la Generalitat Valenciana a través del Programa para la promoción de la investigación científica, el desarrollo tecnológico y la innovación en la Comunitat Valenciana (ACIF/2020/177).
|
50 |
Análisis de publicaciones en una red social de microblogging para la detección automática de sucesos violentos durante manifestaciones públicasOncevay Marcos, Félix Arturo 04 May 2017 (has links)
El activismo social en el Perú se encuentra en crecimiento, principalmente en las zonas
urbanas y en los sectores de ingresos medios, donde las redes sociales han llegado a influir
en las diversas acciones de la población, y en el modo de informar, influir y convocar a
las personas. Es por ello que se han observado casos recientes como las marchas contra la
Ley Laboral Juvenil o ‘Ley Pulpín’, donde se movilizó una gran cantidad de personas, y
se podían observar dos manifestaciones en paralelo pero afines: en la calle y en las redes
sociales, principalmente en Twitter. Sin embargo, a pesar de ser convocada como marcha
pacífica, sucedieron actos de violencia y enfrentamientos, los cuales lamentablemente son
frecuentes en la realidad peruana.
En este contexto, se propone el desarrollo de un mecanismo para analizar los mensajes
publicados en Twitter durante una manifestación real. El objetivo principal es identificar
y caracterizar automáticamente los diferentes sucesos de violencia que pueden ocurrir
durante la protesta. Para esto, luego de recolectar publicaciones de Twitter durante
manifestaciones reales, se analizarán cuáles son las mejores técnicas a aplicar para el
tratamiento y transformación de estos mensajes a información relevante para nuestro
objetivo. El enfoque de esta investigación se plantea desde las áreas de la ingeniería
del conocimiento (análisis del dominio del conocimiento sobre violencia), la minería de
textos (detección, resumen y descripción de eventos a partir de textos) y el procesamiento
de lenguaje natural. Finalmente, se calcularán métricas de evaluación sobre los sucesos
violentos identificados, para validar la eficacia del procedimiento propuesto. / Tesis
|
Page generated in 0.0829 seconds