211 |
Design and Implementation of a Model-Driven Software Production Method: from Strategy to CodeNoel López, René Alejandro 15 April 2024 (has links)
[ES] Cada día surgen nuevas tecnologías que cambian el mundo tal y como lo conocemos: cómo aprendemos, trabajamos y nos relacionamos. Este escenario lleva a las organizaciones a adaptar rápidamente no sólo sus productos y servicios, sino también su estructura y estrategias para sobrevivir y prosperar. Como se ha estudiado ampliamente, alinear la tecnología de la información con objetivos de alto nivel es clave para que una organización se adapte rápidamente a su entorno. Los métodos de desarrollo dirigidos por modelos (MDD) han contribuido a ello al incluir los objetivos de negocio en el proceso de desarrollo de software, proporcionando trazabilidad, calidad y eficiencia mediante transformaciones de modelo a modelo. Sin embargo, los métodos MDD existentes no han incluido la estrategia y la estructura de la organización en el proceso de desarrollo. Esta tesis integra la información organizacional en un método MDD existente compuesto por OO-Method, un método MDD orientado a objetos, y Análisis de Comunicaciones, un método de modelado de procesos de negocio orientado a la comunicación. A ellos, se integran las principales contribuciones de esta tesis: LiteStrat, un método de modelado organizacional, y Stra2Bis, un método para diseñar procesos de negocio alineados estratégicamente. LiteStrat permite modelar las influencias externas que demandan el desarrollo de nuevo software, y la estrategia y la estructura organizacional para abordar dicha influencia. Stra2Bis integra LiteStrat y Análisis de Comunicaciones a través de tres reglas de transformación, generando una estructura de procesos de negocio alineada con la organización. Hemos realizado validaciones experimentales de las mejoras de completitud y precisión de los modelos producidos por los métodos, y de la eficacia y satisfacción de sus usuarios. El trabajo futuro se centra en la aplicación de los métodos en la industria y en su evolución continua. / [CA] Cada dia sorgixen noves tecnologies que canvien el món tal com el coneixem: com aprenem, treballem i ens relacionem. Aquest escenari porta a les organitzacions a adaptar ràpidament no sols els seus productes i servicis, sinó també la seua estructura i estratègies per a sobreviure i prosperar. Com s'ha estudiat àmpliament, alinear la tecnologia de la informació amb objectius d'alt nivell és clau perquè una organització s'adapte ràpidament al seu entorn. Els mètodes de desenvolupament dirigits per models (MDD) hi han contribuït en incloure els objectius de negoci en el procés de desenvolupament de programari, proporcionant traçabilitat, qualitat i eficiència mitjançant transformacions de model a model. No obstant, els mètodes MDD existents no han inclòs l'estratègia i l'estructura de l'organització en el procés de desenvolupament. Aquesta tesi integra la informació organitzacional en un mètode MDD existent compost per OO-Method, un mètode MDD orientat a objectes, i Anàlisis de Comunicacions, un mètode de modelatge de processos de negoci orientat a la comunicació. A ells, s'integren les principals contribucions d'aquesta tesi: LiteStrat, un mètode de modelatge organitzacional, i Stra2Bis, un mètode per a dissenyar processos de negoci alineats estratègicament. LiteStrat permet modelar les influències externes que demanden el desenvolupament de nou programari, i l'estratègia i l'estructura organitzacional per a abordar aquesta influència. Stra2Bis integra LiteStrat i Anàlisi de Comunicacions a través de tres regles de transformació, generant una estructura de processos de negoci alineada amb l'organització. Hem realitzat validacions experimentals de les millores de completesa i precisió dels models produïts pels mètodes, i de l'eficàcia i satisfacció dels seus usuaris. El treball futur se centra en l'aplicació dels mètodes en la indústria i en la seua evolució contínua. / [EN] New, disruptive technologies emerge daily, changing the world as we know it: how we learn, work, and socially interact. This ever-changing scenario pushes organisations to quickly adapt not only their products and services but also their structure and strategies to survive and thrive. As has been widely studied, aligning information technology to high-level goals is key for an organisation to adapt quickly to its environment. Model-driven development (MDD) methods have contributed to this by systematically including business goals in the software development process, providing traceability, quality and efficiency through model-to-model transformations. Yet, existing MDD methods have not included organisational strategy and structure in the development process. This thesis integrates organisational information into a baseline MDD method composed of the OO-Method, an object-oriented model-driven development method, and Communication Analysis, a communication-oriented business process modelling method. The baseline MDD method is extended by the main contributions of this thesis: LiteStrat, an organisational modelling method, and Stra2Bis, a method for designing strategically aligned business processes. LiteStrat supports modelling the external influences that drive new software development endeavours and the strategy and organisational structure to address such influence. Stra2Bis integrates LiteStrat and Communication Analysis through three model-to-model transformation guidelines, generating the scaffold of business processes aligned with the organisation's structure and strategy. Sound experimental validations were performed to assess the methods' improvements in completeness and accuracy and their effect on the method users' efficiency and satisfaction. Further work regards implementing the methods into industrial contexts and their continuous evolution. / Project Participation: SREC: Desarrollo ágil de sistemas desde requisitos a código (SREC). PID2021-123824OB-I00: Agencia Estatal de Investigacion, España. 2022-2025. DELFOS: Sistema de información para la gestión de variaciones genómicas. PDC2021-121243-I00 - Agencia Estatal de Investigacion, España. 2021-2023. OGMIOS: Sistema inteligente de apoyo a la toma de decisiones clínicas en medicina de precisión. INNEST/2021/57 - Agencia Estatal de Investigacion, España. 2021-2023. / Noel López, RA. (2024). Design and Implementation of a Model-Driven Software Production Method: from Strategy to Code [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203527
|
212 |
Towards Search-based Game Software EngineeringBlasco Latorre, Daniel 20 April 2024 (has links)
Tesis por compendio / [ES] Los videojuegos son proyectos multidisciplinares que implican, en buena medida, el desarrollo de software. Esta tesis trata la faceta del desarrollo de videojuegos relativa al software mediante la Ingeniería del Software basada en Búsqueda (SBSE, Search-based Software Engineering). El objetivo específico de este trabajo es valerse de las características de los videojuegos en pro de una Ingeniería del Software de Videojuegos basada en Búsqueda (SBGSE, Search-based Game Software Engineering), incluyendo el uso de simulaciones de videojuegos para guiar búsquedas, codificación de granularidad fina y operaciones genéticas de mejora.
Las aproximaciones propuestas superan a las de referencia en mantenimiento (trazabilidad de requisitos) y creación de contenido (generación de NPCs). El mantenimiento y la creación de contenido son, a menudo, tareas esenciales para garantizar la retención de usuarios por medio de actualizaciones o expansiones. Además, esta investigación aborda la necesidad de estudios de caso industriales.
Esta tesis presenta un compendio que incluye tres artículos realizados durante el proceso de investigación y publicados en revistas académicas, con resultados que muestran que las aproximaciones de la Ingeniería del Software de Videojuegos basada en Búsqueda (SBGSE, Search-based Game Software Engineering) pueden mejorar la calidad de las soluciones generadas, así como reducir el tiempo necesario para producirlas. / [CA] Els videojocs són projectes multidisciplinaris que impliquen, en bona part, el desenvolupament de software. Aquesta tesi tracta la faceta del desenvolupament de videojocs relativa al software mitjançant l'Enginyeria del Software basada en Cerca (SBSE, Search-based Software Engineering). L'objectiu específic d'aquest treball és valdre's de les característiques dels videojocs en pro d'una Enginyeria del Software de Videojocs basada en Cerca (SBGSE, Search-based Game Software Engineering), incloent-hi l'ús de simulacions de videojocs per a guiar cerques, codificació de granularitat fina i operacions genètiques de millora.
Les aproximacions proposades superen a les de referència en manteniment (traçabilitat de requisits) i creació de contingut (generació de NPCs). El manteniment i la creació de contingut són, sovint, tasques essencials per a garantir la retenció d'usuaris per mitjà d'actualitzacions o expansions. A més, aquesta investigació aborda la necessitat d'estudis de cas industrials.
Aquesta tesi presenta un compendi que inclou tres articles realitzats durant el procés d'investigació i publicats en revistes acadèmiques, amb resultats que mostren que les aproximacions de l'Enginyeria del Software de Videojocs basada en Cerca (SBGSE, Search-based Game Software Engineering) poden millorar la qualitat de les solucions generades, així com reduir el temps necessari per a produir-les. / [EN] Video games are multidisciplinary projects which involve software development to a significant extent. This thesis tackles the software aspect of video game development through Search-based Engineering. Specifically, the objective of this work is to leverage the characteristics of video games towards Search-based Game Software Engineering, including the use of video game simulations to guide the search, a fine-grained encoding, and improvement genetic operations.
The approaches proposed outperform the baselines in maintenance (requirement traceability) and content creation (NPC generation) tasks. Maintenance and content creation are often essential tasks to ensure player retention by means of updates or expansions. In addition, this research addresses the need for industrial case studies.
This thesis presents a compendium that includes three papers produced through the research and published in academic journals, with results that show that Search-based Game Software Engineering approaches can provide improved solutions, in terms of quality and time cost. / This work has been partially supported by the Ministry of Economy and Competitiveness (MINECO) through the Spanish National R+D+i Plan and ERDF funds under the Project ALPS (RTI2018-096411-B-I00). / Blasco Latorre, D. (2024). Towards Search-based Game Software Engineering [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203655 / Compendio
|
213 |
Análisis de modelos de objetivos basado en valor mediante lógica difusa y toma de decisiones multicriterioCano Genovés, Carlos 02 September 2024 (has links)
[ES] La ingeniería de requisitos es fundamental para el desarrollo de software ya que se encarga de obtener, analizar, especificar, validar y gestionar los requisitos del software. La definición incorrecta de los requisitos puede causar retrasos y sobrecostes. Además, es importante identificar los requisitos más relevantes y cuáles deberían implementarse primero considerando las limitaciones de recursos y teniendo cuenta distintos puntos de vista.
Los modelos de objetivos destacan para obtener y modelar requisitos de alto nivel ya que se centran en los objetivos de los stakeholders y las relaciones entre ellos. Estos modelos ayudan a identificar los requisitos ya que capturan las motivaciones e intenciones de los stakeholders con respecto al software. Si bien existen diversas técnicas de análisis de modelos de objetivos, la mayoría se centran en la satisfacibilidad, identificando la compatibilidad entre objetivos gestionando así un problema importante de la ingeniería de requisitos.
Las técnicas de modelos de objetivos adoptan un enfoque neutral con respecto al valor, considerando todos los objetivos igual de importantes. Si bien existen técnicas que utilizan la priorización de importancia junto con satisfacción, el enfoque principal es la satisfacción, haciendo que la importancia para los stakeholders quede relegado a un segundo plano. En consecuencia, los resultados pueden ayudar con la compatibilidad de los requisitos, pero no a identificar los más relevantes.
El objetivo de esta tesis doctoral es definir y evaluar una técnica de análisis de modelos de objetivos que priorice los objetivos de un modelo de objetivos en función del valor que aportan según las preferencias de los stakeholders y las relaciones entre los objetivos, permitiendo identificar qué objetivos aportan más valor a los stakeholders. Esta técnica no pretende sustituir a las ya existentes sino complementarlas ya que no identifica la compatibilidad entre los objetivos sino cuáles proporcionan más valor.
La técnica propuesta (VeGAn) hace uso de la lógica difusa para tratar la incertidumbre en la asignación de importancia relativa y de una técnica de toma de decisiones multicriterio ampliamente utilizada en la industria (TOPSIS) para calcular el valor, la cual se ve enriquecida por una técnica de propagación sistemática que provee información adicional sobre la interacción entre los objetivos en base a las relaciones del modelo de objetivos.
Además, se ha desarrollado una herramienta que da soporte tecnológico a VeGAn automatizando la técnica y proporcionado una serie de funciones: i) importar modelos de objetivos de otras herramientas; ii) realizar validaciones sobre los datos introducidos; iii) ordenar los resultados según varios; y iv) almacenar información sobre distintos análisis de un modelo de objetivos para realizar comparaciones del valor obtenido.
VeGAn se evaluó mediante un estudio de caso y una familia de experimentos. El estudio de caso verificó la aplicabilidad sistemática y consistente de la técnica, obteniendo retroalimentación para mejoras. La familia de experimentos involucró a 172 sujetos, estudiantes de ingeniería en informática y másteres en ingeniería del software donde se analizó la precisión de la priorización, tiempo de priorización, satisfacción percibida, facilidad de uso percibida, utilidad percibida e intención de uso percibida de los participantes aplicando VeGAn en oposición a GRL-Quant. El análisis estadístico indicó que ambas técnicas son similares salvo para la satisfacción percibida a favor de VeGAn.
Esta tesis doctoral contribuye al ámbito de la ingeniería de requisitos y en especial a la elicitación temprana de requisitos mediante el uso de modelos de objetivos proporcionando una técnica de análisis que complementa a las ya existentes ayudando a priorizar aquellos objetivos que proporcionan más valor teniendo en cuenta el punto de vista de diversos stakeholders. / [CA] L'enginyeria de requisits és fonamental per al desenvolupament de programari ja que s'encarrega d'obtindre, analitzar, especificar, validar i gestionar els requisits del programari. La definició incorrecta dels requisits pot causar retards i sobrecostos. A més, és important identificar els requisits més rellevants i quins haurien d'implementar-se primer considerant les limitacions de recursos i tenint compte diferents punts de vista.
Els models d'objectius destaquen per a obtindre i modelar requisits d'alt nivell ja que se centren en els objectius dels stakeholders i les relacions entre ells. Estos models ajuden a identificar els requisits ja que capturen les motivacions i intencions dels stakeholders respecte al programari. Si bé existixen diverses tècniques d'anàlisis de models d'objectius, la majoria se centren en la satisfacibilitat, identificant la compatibilitat entre objectius gestionant així un problema important de l'enginyeria de requisits.
Les tècniques de models d'objectius adopten un enfocament neutral respecte al valor, considerant tots els objectius igual d'importants. Si bé existixen tècniques que utilitzen la priorització d'importància juntament amb satisfacció, l'enfocament principal és la satisfacció, fent que la importància per als stakeholders quede relegat a un segon pla. En conseqüència, els resultats poden ajudar amb la compatibilitat dels requisits, però no a identificar els més rellevants.
L'objectiu d'esta tesi doctoral és definir i avaluar una tècnica d'anàlisi de models d'objectius que prioritze els objectius d'un model d'objectius en funció del valor que aporten segons les preferències dels stakeholders i les relacions entre els objectius, permetent identificar quins objectius aporten més valor als stakeholders. Esta tècnica no pretén substituir a les ja existents sinó complementar-les ja que no identifica la compatibilitat entre els objectius sinó quins proporcionen més valor.
La tècnica proposada (VeGAn) fa ús de la lògica difusa per a tractar la incertesa en l'assignació d'importància relativa i d'una tècnica de presa de decisions multicriteri àmpliament utilitzada en la indústria (TOPSIS) per a calcular el valor, la qual es veu enriquida per una tècnica de propagació sistemàtica que proveïx informació addicional sobre la interacció entre els objectius sobre la base de les relacions del model d'objectius.
A més, s'ha desenvolupat una ferramenta que dona suport tecnològic a VeGAn automatitzant la tècnica i proporcionat una sèrie de funcions: i) importar models d'objectius d'altres ferramentes; ii) realitzar validacions sobre les dades introduïdes; iii) ordenar els resultats segons varis; i iv) emmagatzemar informació sobre diferents anàlisis d'un model d'objectius per a realitzar comparacions del valor obtingut.
VeGAn es va avaluar mitjançant un estudi de cas i una família d'experiments. L'estudi de cas va verificar l'aplicabilitat sistemàtica i consistent de la tècnica, obtenint retroalimentació per a millores. La família d'experiments va involucrar a 172 subjectes, estudiants d'enginyeria en informàtica i màsters en enginyeria del programari on es va analitzar la precisió de la priorització, temps de priorització, satisfacció percebuda, facilitat d'ús percebuda, utilitat percebuda i intenció d'ús percebuda dels participants aplicant VeGAn en oposició a GRL-Quant. L'anàlisi estadística va indicar que totes dues tècniques són similars excepte per a la satisfacció percebuda a favor de VeGAn.
Esta tesi doctoral contribuïx a l'àmbit de l'enginyeria de requisits i especialment a la elicitació primerenca de requisits mitjançant l'ús de models d'objectius proporcionant una tècnica d'anàlisi que complementa a les ja existents ajudant a prioritzar aquells objectius que proporcionen més valor tenint en compte el punt de vista de diversos stakeholders. / [EN] Requirements engineering is fundamental to software development as it is responsible for eliciting, analysing, specifying, validating and managing software requirements. Incorrect definition of requirements can cause delays and cost overruns. Furthermore, it is important to identify the most relevant requirements and which ones should be implemented first considering resource constraints and taking into account different points of view.
Goal models stand out at eliciting and modelling high-level requirements as they focus on stakeholder goals and the relationships between them. These models help identify requirements by capturing the motivations and intentions of stakeholders with respect to the software. Although there are a variety of goal-oriented analysis techniques, most focus on satisfiability, identifying compatibility between goals and thus managing an important requirements engineering problem.
Goal-oriented analysis techniques adopt a value-neutral approach, considering all goals equally important. While there are techniques that use prioritisation of importance along with satisfaction, the main focus is on satisfaction, pushing importance to stakeholders into the background. As a result, the results may help with the compatibility of requirements, but not in identifying the most relevant ones.
The objective of this PhD thesis is to define and evaluate a goal-oriented analysis technique that prioritises the goals of a goal model according to the value they provide according to the preferences of stakeholders and the relationships between the goals, making it possible to identify which goals provide the most value to stakeholders. This technique is not intended to replace existing techniques but to complement them, as it does not identify compatibility between goals but rather which ones provide the most value.
The proposed technique (VeGAn) makes use of fuzzy logic to deal with uncertainty in assigning relative importance and a widely used multi-criteria decision-making technique in industry (TOPSIS) to calculate value, which is enriched by a systematic propagation technique that provides additional information on the interaction between goals based on the relationships of the goal model.
In addition, a tool has been developed to provide technological support to VeGAn by automating the technique and providing a series of functions: i) importing goal models from other tools; ii) performing validations on the data entered; iii) sorting the results according to several; and iv) storing information on different analyses of a goal model in order to make comparisons of the value obtained.
VeGAn was evaluated through a case study and a family of experiments. The case study verified the systematic and consistent applicability of the technique, obtaining feedback for improvements. The family of experiments involved 172 subjects, undergraduate students in computer engineering and masters in software engineering. The aim of the family was to analyse the participants' prioritisation accuracy, prioritisation time, perceived satisfaction, perceived ease of use, perceived usefulness, and perceived intention to use by applying VeGAn as opposed to GRL-Quant, a widely used goal modelling analysis method. Statistical analysis indicated that both techniques are similar except for perceived satisfaction in favour of VeGAn.
This PhD thesis contributes to the field of requirements engineering and in particular to the early elicitation of requirements through the use of goal models by providing a goal-oriented analysis technique that complements the existing ones by helping to prioritise those goals that provide the most value taking into account the point of view of various stakeholders. / Cano Genovés, C. (2024). Análisis de modelos de objetivos basado en valor mediante lógica difusa y toma de decisiones multicriterio [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/207550
|
214 |
Rule-Based Software Verification and CorrectionBallis, Demis 07 May 2008 (has links)
The increasing complexity of software systems has led to the development of sophisticated formal Methodologies for verifying and correcting data and programs. In general, establishing whether a program behaves correctly w.r.t. the original programmer s intention or checking the consistency and the correctness of a large set of data are not trivial tasks as witnessed by many case studies which occur in the literature.
In this dissertation, we face two challenging problems of verification and correction. Specifically, verification and correction of declarative programs, and the verification and correction of Web sites (i.e. large collections of semistructured data).
Firstly, we propose a general correction scheme for automatically correcting declarative, rule-based programs which exploits a combination of bottom-up as well as topdown inductive learning techniques. Our hybrid hodology is able to infer program corrections that are hard, or even impossible, to obtain with a simpler,automatic top-down or bottom-up learner. Moreover, the scheme will be also particularized to some well-known declarative programming paradigm: that is, the functional logic and the functional programming paradigm.
Secondly, we formalize a framework for the automated verification of Web sites which can be used to specify integrity conditions for a given Web site, and then automatically check whether these conditions are fulfilled. We provide a rule-based, formal specification language which allows us to define syntactic as well as semantic
properties of the Web site. Then, we formalize a verification technique which detects both incorrect/forbidden patterns as well as lack of information, that is, incomplete/missing Web pages. Useful information is gathered during the verification process which can be used to repair the Web site. So, after a verification phase, one
can also infer semi-automatically some possible corrections in order to fix theWeb site.
The methodology is based on a novel rewrit / Ballis, D. (2005). Rule-Based Software Verification and Correction [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1948
|
215 |
Novel statistical approaches to text classification, machine translation and computer-assisted translationCivera Saiz, Jorge 04 July 2008 (has links)
Esta tesis presenta diversas contribuciones en los campos de la
clasificación automática de texto, traducción automática y traducción
asistida por ordenador bajo el marco estadístico.
En clasificación automática de texto, se propone una nueva aplicación
llamada clasificación de texto bilingüe junto con una serie de modelos
orientados a capturar dicha información bilingüe. Con tal fin se
presentan dos aproximaciones a esta aplicación; la primera de ellas se
basa en una asunción naive que contempla la independencia entre las
dos lenguas involucradas, mientras que la segunda, más sofisticada,
considera la existencia de una correlación entre palabras en
diferentes lenguas. La primera aproximación dió lugar al desarrollo de
cinco modelos basados en modelos de unigrama y modelos de n-gramas
suavizados. Estos modelos fueron evaluados en tres tareas de
complejidad creciente, siendo la más compleja de estas tareas
analizada desde el punto de vista de un sistema de ayuda a la
indexación de documentos. La segunda aproximación se caracteriza por
modelos de traducción capaces de capturar correlación entre palabras
en diferentes lenguas. En nuestro caso, el modelo de traducción
elegido fue el modelo M1 junto con un modelo de unigramas. Este
modelo fue evaluado en dos de las tareas más simples superando la
aproximación naive, que asume la independencia entre palabras en
differentes lenguas procedentes de textos bilingües.
En traducción automática, los modelos estadísticos de traducción
basados en palabras M1, M2 y HMM son extendidos bajo el marco de la
modelización mediante mixturas, con el objetivo de definir modelos de
traducción dependientes del contexto. Asimismo se extiende un
algoritmo iterativo de búsqueda basado en programación dinámica,
originalmente diseñado para el modelo M2, para el caso de mixturas de
modelos M2. Este algoritmo de búsqueda n / Civera Saiz, J. (2008). Novel statistical approaches to text classification, machine translation and computer-assisted translation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2502
|
216 |
Pattern recognition approaches for biomedical data in computer-assisted cancer researchGarcía Gómez, Juan Miguel 12 May 2009 (has links)
El análisis sistémico de datos biomédicos procedentes de diferentes niveles biológicos
abre amplias expectativas en el proceso de toma de decisiones médicas. Las nuevas tecnologías
biomédicas permiten la interpretación del origen de las afecciones que sufren los
pacientes, trasladando el paradigma de decisión hacia la medicina basada en la evidencia.
Esta Tesis centra su atención en la ayuda al diagnóstico del cáncer asistida por ordenador.
El objetivo de nuestro estudio es obtener unos resultados de alto acierto en
clasificación, que ofrezcan transparencia en su interpretación mediante conocimiento médico
y capacidad de generalización cuando se aplican a pacientes procedentes de múltiples
centros estudiados con posterioridad. Los aspectos técnicos cubiertos en esta Tesis incluyen
el procesamiento, modelado, extracción de características, y combinación de datos
biomédicos; así como la inferencia y evaluación de modelos predictivos de dichos datos y
la integración de los modelos predictivos en sistemas de ayuda a la decisión para entornos
clínicos. Concretamente, estos puntos se abordan para dos problemas médicos: el diagnóstico
de Tumores de Partes Blandas (TPB) y, especialmente, el diagnóstico de Tumores
Cerebrales (TC).
En los desarrollos realizados para el problema de TPB con hallazgos de imagen se alcanzó
una alta eficacia en la clasificación basada en Reconocimiento de Formas de tumores
según su carácter benigno o maligno. Un sistema de ayuda a la decisión especializado para el problema de TPB fue
diseñado e implementado a partir de los clasificadores aprendidos a partir de una base de datos multicéntrica.
Las contribuciones de esta Tesis al estudio de Tumores Cerebrales incluyen el análisis
de señales biomédicas in-vivo y ex-vivo del paciente. Ha sido propuesta una nueva aproximación
para la combinación de Espectros de Resonancia Magnética (ERM) adquiridos
para un mismo paciente con diferentes tiempos de eco (TE corto y TE largo) ha sido
propuesta. También se / García Gómez, JM. (2009). Pattern recognition approaches for biomedical data in computer-assisted cancer research [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4602
|
217 |
Advanced Features in Protocol Verification: Theory, Properties, and Efficiency in Maude-NPASantiago Pinazo, Sonia 31 March 2015 (has links)
The area of formal analysis of cryptographic protocols has been an active
one since the mid 80’s. The idea is to verify communication protocols
that use encryption to guarantee secrecy and that use authentication of
data to ensure security. Formal methods are used in protocol analysis to
provide formal proofs of security, and to uncover bugs and security flaws
that in some cases had remained unknown long after the original protocol
publication, such as the case of the well known Needham-Schroeder
Public Key (NSPK) protocol. In this thesis we tackle problems regarding
the three main pillars of protocol verification: modelling capabilities,
verifiable properties, and efficiency.
This thesis is devoted to investigate advanced features in the analysis
of cryptographic protocols tailored to the Maude-NPA tool. This tool
is a model-checker for cryptographic protocol analysis that allows for
the incorporation of different equational theories and operates in the
unbounded session model without the use of data or control abstraction.
An important contribution of this thesis is relative to theoretical aspects
of protocol verification in Maude-NPA. First, we define a forwards
operational semantics, using rewriting logic as the theoretical framework
and the Maude programming language as tool support. This is the first
time that a forwards rewriting-based semantics is given for Maude-NPA.
Second, we also study the problem that arises in cryptographic protocol
analysis when it is necessary to guarantee that certain terms generated
during a state exploration are in normal form with respect to the protocol
equational theory.
We also study techniques to extend Maude-NPA capabilities to support
the verification of a wider class of protocols and security properties.
First, we present a framework to specify and verify sequential protocol
compositions in which one or more child protocols make use of information obtained from running a parent protocol. Second, we present a
theoretical framework to specify and verify protocol indistinguishability
in Maude-NPA. This kind of properties aim to verify that an attacker
cannot distinguish between two versions of a protocol: for example, one
using one secret and one using another, as it happens in electronic voting
protocols.
Finally, this thesis contributes to improve the efficiency of protocol
verification in Maude-NPA. We define several techniques which drastically
reduce the state space, and can often yield a finite state space,
so that whether the desired security property holds or not can in fact
be decided automatically, in spite of the general undecidability of such
problems. / Santiago Pinazo, S. (2015). Advanced Features in Protocol Verification: Theory, Properties, and Efficiency in Maude-NPA [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48527
|
218 |
Towards Data Wrangling Automation through Dynamically-Selected Background KnowledgeContreras Ochando, Lidia 04 February 2021 (has links)
[ES] El proceso de ciencia de datos es esencial para extraer valor de los datos. Sin embargo, la parte más tediosa del proceso, la preparación de los datos, implica una serie de formateos, limpieza e identificación de problemas que principalmente son tareas manuales. La preparación de datos todavía se resiste a la automatización en parte porque el problema depende en gran medida de la información del dominio, que se convierte en un cuello de botella para los sistemas de última generación a medida que aumenta la diversidad de dominios, formatos y estructuras de los datos.
En esta tesis nos enfocamos en generar algoritmos que aprovechen el conocimiento del dominio para la automatización de partes del proceso de preparación de datos. Mostramos la forma en que las técnicas generales de inducción de programas, en lugar de los lenguajes específicos del dominio, se pueden aplicar de manera flexible a problemas donde el conocimiento es importante, mediante el uso dinámico de conocimiento específico del dominio. De manera más general, sostenemos que una combinación de enfoques de aprendizaje dinámicos y basados en conocimiento puede conducir a buenas soluciones. Proponemos varias estrategias para seleccionar o construir automáticamente el conocimiento previo apropiado en varios escenarios de preparación de datos. La idea principal se basa en elegir las mejores primitivas especializadas de acuerdo con el contexto del problema particular a resolver.
Abordamos dos escenarios. En el primero, manejamos datos personales (nombres, fechas, teléfonos, etc.) que se presentan en formatos de cadena de texto muy diferentes y deben ser transformados a un formato unificado. El problema es cómo construir una transformación compositiva a partir de un gran conjunto de primitivas en el dominio (por ejemplo, manejar meses, años, días de la semana, etc.). Desarrollamos un sistema (BK-ADAPT) que guía la búsqueda a través del conocimiento previo extrayendo varias meta-características de los ejemplos que caracterizan el dominio de la columna. En el segundo escenario, nos enfrentamos a la transformación de matrices de datos en lenguajes de programación genéricos como R, utilizando como ejemplos una matriz de entrada y algunas celdas de la matriz de salida. También desarrollamos un sistema guiado por una búsqueda basada en árboles (AUTOMAT[R]IX) que usa varias restricciones, probabilidades previas para las primitivas y sugerencias textuales, para aprender eficientemente las transformaciones.
Con estos sistemas, mostramos que la combinación de programación inductiva, con la selección dinámica de las primitivas apropiadas a partir del conocimiento previo, es capaz de mejorar los resultados de otras herramientas actuales específicas para la preparación de datos. / [CA] El procés de ciència de dades és essencial per extraure valor de les dades. No obstant això, la part més tediosa del procés, la preparació de les dades, implica una sèrie de transformacions, neteja i identificació de problemes que principalment són tasques manuals. La preparació de dades encara es resisteix a l'automatització en part perquè el problema depén en gran manera de la informació del domini, que es converteix en un coll de botella per als sistemes d'última generació a mesura que augmenta la diversitat de dominis, formats i estructures de les dades.
En aquesta tesi ens enfoquem a generar algorismes que aprofiten el coneixement del domini per a l'automatització de parts del procés de preparació de dades. Mostrem la forma en què les tècniques generals d'inducció de programes, en lloc dels llenguatges específics del domini, es poden aplicar de manera flexible a problemes on el coneixement és important, mitjançant l'ús dinàmic de coneixement específic del domini. De manera més general, sostenim que una combinació d'enfocaments d'aprenentatge dinàmics i basats en coneixement pot conduir a les bones solucions. Proposem diverses estratègies per seleccionar o construir automàticament el coneixement previ apropiat en diversos escenaris de preparació de dades. La idea principal es basa a triar les millors primitives especialitzades d'acord amb el context del problema particular a resoldre.
Abordem dos escenaris. En el primer, manegem dades personals (noms, dates, telèfons, etc.) que es presenten en formats de cadena de text molt diferents i han de ser transformats a un format unificat. El problema és com construir una transformació compositiva a partir d'un gran conjunt de primitives en el domini (per exemple, manejar mesos, anys, dies de la setmana, etc.). Desenvolupem un sistema (BK-ADAPT) que guia la cerca a través del coneixement previ extraient diverses meta-característiques dels exemples que caracteritzen el domini de la columna. En el segon escenari, ens enfrontem a la transformació de matrius de dades en llenguatges de programació genèrics com a R, utilitzant com a exemples una matriu d'entrada i algunes dades de la matriu d'eixida. També desenvolupem un sistema guiat per una cerca basada en arbres (AUTOMAT[R]IX) que usa diverses restriccions, probabilitats prèvies per a les primitives i suggeriments textuals, per aprendre eficientment les transformacions.
Amb aquests sistemes, mostrem que la combinació de programació inductiva amb la selecció dinàmica de les primitives apropiades a partir del coneixement previ, és capaç de millorar els resultats d'altres enfocaments de preparació de dades d'última generació i més específics. / [EN] Data science is essential for the extraction of value from data. However, the most tedious part of the process, data wrangling, implies a range of mostly manual formatting, identification and cleansing manipulations. Data wrangling still resists automation partly because the problem strongly depends on domain information, which becomes a bottleneck for state-of-the-art systems as the diversity of domains, formats and structures of the data increases.
In this thesis we focus on generating algorithms that take advantage of the domain knowledge for the automation of parts of the data wrangling process. We illustrate the way in which general program induction techniques, instead of domain-specific languages, can be applied flexibly to problems where knowledge is important, through the dynamic use of domain-specific knowledge. More generally, we argue that a combination of knowledge-based and dynamic learning approaches leads to successful solutions. We propose several strategies to automatically select or construct the appropriate background knowledge for several data wrangling scenarios. The key idea is based on choosing the best specialised background primitives according to the context of the particular problem to solve.
We address two scenarios. In the first one, we handle personal data (names, dates, telephone numbers, etc.) that are presented in very different string formats and have to be transformed into a unified format. The problem is how to build a compositional transformation from a large set of primitives in the domain (e.g., handling months, years, days of the week, etc.). We develop a system (BK-ADAPT) that guides the search through the background knowledge by extracting several meta-features from the examples characterising the column domain. In the second scenario, we face the transformation of data matrices in generic programming languages such as R, using an input matrix and some cells of the output matrix as examples. We also develop a system guided by a tree-based search (AUTOMAT[R]IX) that uses several constraints, prior primitive probabilities and textual hints to efficiently learn the transformations.
With these systems, we show that the combination of inductive programming with the dynamic selection of the appropriate primitives from the background knowledge is able to improve the results of other state-of-the-art and more specific data wrangling approaches. / This research was supported by the Spanish MECD Grant FPU15/03219;and partially by the Spanish MINECO TIN2015-69175-C4-1-R (Lobass) and RTI2018-094403-B-C32-AR (FreeTech) in Spain; and by the ERC Advanced Grant Synthesising Inductive Data Models (Synth) in Belgium. / Contreras Ochando, L. (2020). Towards Data Wrangling Automation through Dynamically-Selected Background Knowledge [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/160724
|
219 |
MAS-based affective state analysis for user guiding in on-line social environmentsAguado Sarrió, Guillem 07 April 2021 (has links)
[ES] Recientemente, hay una fuerte y creciente influencia de aplicaciones en línea en nuestro día a día. Más concretamente las redes sociales se cuentan entre las plataformas en línea más usadas, que permiten a usuarios comunicarse e interactuar desde diferentes partes del mundo todos los días. Dado que estas interacciones conllevan diferentes riesgos, y además los adolescentes tienen características que los hacen más vulnerables a ciertos riesgos, es deseable que el sistema pueda guiar a los usuarios cuando se encuentren interactuando en línea, para intentar mitigar la probabilidad de que caigan en uno de estos riesgos. Esto conduce a una experiencia en línea más segura y satisfactoria para usuarios de este tipo de plataformas. El interés en aplicaciones de inteligencia artificial capaces de realizar análisis de sentimientos ha crecido recientemente. Los usos de la detección automática de sentimiento de usuarios en plataformas en línea son variados y útiles. Se pueden usar polaridades de sentimiento para realizar minería de opiniones en personas o productos, y así descubrir las inclinaciones y opiniones de usuarios acerca de ciertos productos (o ciertas características de ellos), para ayudar en campañas de marketing, y también opiniones acerca de personas como políticos, para descubrir la intención de voto en un periodo electoral, por ejemplo. En esta tesis, se presenta un Sistema Multi-Agente (SMA), el cual integra agentes que realizan diferentes análisis de sentimientos y de estrés usando texto y dinámicas de escritura (usando análisis unimodal y multimodal), y utiliza la respuesta de los analizadores para generar retroalimentación para los usuarios y potencialmente evitar que caigan en riesgos y difundan comentarios en plataformas sociales en línea que pudieran difundir polaridades de sentimiento negativas o niveles altos de estrés. El SMA implementa un análisis en paralelo de diferentes tipos de datos y generación de retroalimentación a través del uso de dos mecanismos diferentes. El primer mecanismo se trata de un agente que realiza generación de retroalimentación y guiado de usuarios basándose en un conjunto de reglas y la salida de los analizadores. El segundo mecanismo es un módulo de Razonamiento Basado en Casos (CBR) que usa no solo la salida de los analizadores en los mensajes del usuario interactuando para predecir si su interacción puede generar una futura repercusión negativa, sino también información de contexto de interacciones de usuarios como son los tópicos sobre los que hablan o información sobre predicciones previas en mensajes escritos por la gente que conforma la audiencia del usuario. Se han llevado a cabo experimentos con datos de una red social privada generada en laboratorio con gente real usando el sistema en tiempo real, y también con datos de Twitter.com para descubrir cuál es la eficacia de los diferentes analizadores implementados y del módulo CBR al detectar estados del usuario que se propagan más en la red social. Esto conlleva descubrir cuál de las técnicas puede prevenir mejor riesgos potenciales que los usuarios pueden sufrir cuando interactúan, y en qué casos. Se han encontrado diferencias estadísticamente significativas y la versión final del SMA incorpora los analizadores que mejores resultados obtuvieron, un agente asesor o guía basado en reglas y un módulo CBR. El trabajo de esta tesis pretende ayudar a futuros desarrolladores de sistemas inteligentes a crear sistemas que puedan detectar el estado de los usuarios interactuando en sitios en línea y prevenir riesgos que los usuarios pudiesen enfrentar. Esto propiciaría una experiencia de usuario más segura y satisfactoria. / [CA] Recentment, hi ha una forta i creixent influència d'aplicacions en línia en el nostre dia a dia, i concretament les xarxes socials es compten entre les plataformes en línia més utilitzades, que permeten a usuaris comunicar-se i interactuar des de diferents parts del món cada dia. Donat que aquestes interaccions comporten diferents riscos, i a més els adolescents tenen característiques que els fan més vulnerables a certs riscos, seria desitjable que el sistema poguera guiar als usuaris mentre es troben interactuant en línia, per així poder mitigar la probabilitat de caure en un d'aquests riscos. Açò comporta una experiència en línia més segura i satisfactòria per a usuaris d'aquest tipus de plataformes. L'interés en aplicacions d'intel·ligència artificial capaces de realitzar anàlisi de sentiments ha crescut recentment. Els usos de la detecció automàtica de sentiments en usuaris en plataformes en línia són variats i útils. Es poden utilitzar polaritats de sentiment per a realitzar mineria d'opinions en persones o productes, i així descobrir les inclinacions i opinions d'usuaris sobre certs productes (o certes característiques d'ells), per a ajudar en campanyes de màrqueting, i també opinions sobre persones com polítics, per a descobrir la intenció de vot en un període electoral, per exemple. En aquesta tesi, es presenta un Sistema Multi-Agent (SMA), que integra agents que implementen diferents anàlisis de sentiments i d'estrés utilitzant text i dinàmica d'escriptura (utilitzant anàlisi unimodal i multimodal), i utilitza la resposta dels analitzadors per a generar retroalimentació per als usuaris i potencialment evitar que caiguen en riscos i difonguen comentaris en plataformes socials en línia que pogueren difondre polaritats de sentiment negatives o nivells alts d'estrés. El SMA implementa una anàlisi en paral·lel de diferents tipus de dades i generació de retroalimentació a través de l'ús de dos mecanismes diferents. El primer mecanisme es tracta d'un agent que realitza generació de retroalimentació i guia d'usuaris basant-se en un conjunt de regles i l'eixida dels analitzadors. El segon mecanisme és un mòdul de Raonament Basat en Casos (CBR) que utilitza no solament l'eixida dels analitzadors en els missatges de l'usuari per a predir si la seua interacció pot generar una futura repercussió negativa, sinó també informació de context d'interaccions d'usuaris, com són els tòpics sobre els quals es parla o informació sobre prediccions prèvies en missatges escrits per la gent que forma part de l'audiència de l'usuari. S'han realitzat experiments amb dades d'una xarxa social privada generada al laboratori amb gent real utilitzant el sistema implementat en temps real, i també amb dades de Twitter.com per a descobrir quina és l'eficàcia dels diferents analitzadors implementats i del mòdul CBR en detectar estats de l'usuari que es propaguen més a la xarxa social. Açò comporta descobrir quina de les tècniques millor pot prevenir riscos potencials que els usuaris poden sofrir quan interactuen, i en quins casos. S'han trobat diferències estadísticament significatives i la versió final del SMA incorpora els analitzadors que millors resultats obtingueren, un agent assessor o guia basat en regles i un mòdul CBR. El treball d'aquesta tesi pretén ajudar a futurs dissenyadors de sistemes intel·ligents a crear sistemes que puguen detectar l'estat dels usuaris interactuant en llocs en línia i prevenir riscos que els usuaris poguessen enfrontar. Açò propiciaria una experiència d'usuari més segura i satisfactòria. / [EN] In the present days, there is a strong and growing influence of on-line applications in our daily lives, and concretely Social Network Sites (SNSs) are one of the most used on-line social platforms that allow users to communicate and interact from different parts of the world every day. Since this interaction poses several risks, and also teenagers have characteristics that make them more vulnerable to certain risks, it is desirable that the system could be able to guide users when interacting on-line, to try and mitigate the probability of incurring one of those risks. This would in the end lead to a more satisfactory and safe experience for the users of such on-line platforms. Recently, interest in artificial intelligence applications being able to perform sentiment analysis has risen. The uses of detecting the sentiment of users in on-line platforms or sites are variated and rewarding. Sentiment polarities can be used to perform opinion mining on people or products, and discover the inclinations and opinions of users on certain products (or certain features of them) to help marketing campaigns, and also on people such as politics, to discover the voting intention for example in electoral periods. In this thesis, a Multi-Agent System (MAS) is presented, which integrates agents that perform different sentiment and stress analyses using text and keystroke dynamics data (using both unimodal and multi-modal analysis). The MAS uses the output of the analyzers for generating feedback for users and potentially avoids them from incurring risks and spreading comments in on-line social platforms that could lead to the spread of negative sentiment or high-stress levels. Moreover, the MAS incorporates parallelized analyses of different data types and feedback generation via the use of two different mechanisms. On the one hand, a rule-based advisor agent has been implemented, that generates feedback or guiding for users based on the output of the analyzers and a set of rules. On the other hand, a Case-Based Reasoning (CBR) module that uses not only the output of the different analyzers on the messages of the user interacting, but also context information from user interactions such as the topics being talked about or information about the previous states detected on messages written by people in the audience of the user. Experiments with data from a private SNS generated in a laboratory with real people using the system in real-time, and also with data from Twitter.com have been performed to ascertain the efficacy of the different analyzers implemented and the CBR module on detecting states of the user that propagate more in the network, which leads to discovering which of the techniques is able to better prevent potential risks that users could face when interacting, and in which cases. Significant differences were found and the final version of the MAS incorporates the best-performing analyzer agents, a rule-based advisor agent, and a CBR module. In the end, this thesis aims to help intelligent systems developers to build systems that are able to detect the state of users interacting in on-line sites and prevent risks that they could face, leading to a more satisfactory and safe user experience. / This thesis was funded by the following research projects: Privacy in Social Educational Environments during Child-hood and Adolescence (PESEDIA), Ministerio de Economia y Empresa (TIN2014-55206-R) and Intelligent Agents for Privacy Advice in Social Networks (AI4PRI), Ministerio de Economia y Empresa (TIN2017-89156-R) / Aguado Sarrió, G. (2021). MAS-based affective state analysis for user guiding in on-line social environments [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/164902
|
220 |
Sarcasm and Implicitness in Abusive Language Detection: A Multilingual PerspectiveFrenda, Simona 12 July 2022 (has links)
[ES] La posibilidad de monitorear el contenido de odio en línea a partir de lo que escribe la gente se está convirtiendo en un asunto muy importante para varios actores, como gobiernos, empresas de TIC y profesionales de ONG's que implementan campañas de sensibilización en respuesta al preocupante aumento de los abusos y de la incitación al odio en línea. El abusive language es un término genérico que se utiliza para definir los contenidos hostiles generados por usuarios, que intimidan o incitan a la violencia y al desprecio, dirigiéndose a grupos vulnerables en las redes sociales. Hoy en día, estos contenidos están muy extendidos, y se encuentran también en otros tipos de textos como los artículos y títulos de periódicos online.
Se han implementado varios enfoques en los últimos años para apoyar la identificación y el monitoreo de estos fenómenos, lamentablemente estos están lejos de resolver el problema debido a la complejidad interna del lenguaje abusivo y las dificultades para detectar sus formas más implícitas.
En nuestra investigación de doctorado, hemos examinado las cuestiones relacionadas con la identificación automática del lenguaje abusivo en línea, investigando las diferentes maneras de hostilidad contra las mujeres, los inmigrantes y las comunidades culturales minoritarias, en idiomas como el italiano, el inglés y el español. El marco multilingüe nos ha permitido tener un enfoque comparativo para reflexionar sobre cómo se expresa el discurso de odio en varios idiomas, y cómo dichas expresiones se deben representar en el proceso automático del texto. El análisis de los resultados de los distintos métodos de clasificación de los mensajes en relación con la presencia del lenguaje abusivo, ha sacado a la luz algunas dificultades principalmente vinculadas a sus manifestaciones más implícitas. Por ejemplo, en los casos en que se utilizan figuras retóricas (como la ironía y el sarcasmo), cuando se fortalecen ideologías (como la ideología sexista) o esquemas cognitivos (como los estereotipos), o cuando se postulan contrarias a un tema de discusión.
Para abordar estas dificultades, hemos propuesto distintas soluciones que también se pueden aplicar a diferentes géneros textuales. En particular, hemos observado que los aspectos cognitivos y creativos del discurso del odio son más difíciles de deducir automáticamente de los textos. Al mismo tiempo, también son elementos muy recurrentes como el caso del sarcasmo un recurso retórico que tiende a socavar la precisión de los sistemas. De hecho, por sus peculiaridades, el sarcasmo es adecuado para enmascarar mensajes ofensivos, especialmente en textos muy breves e informales. Nuestra hipótesis es que al informar al sistema sobre la presencia del sarcasmo, se mejoraría la identificación de los mensajes de odio, incluso cuando estos están disfrazados de sarcásticos. Para ello, es interesante estudiar cómo la introducción de conocimientos lingüísticos en modelos de detección puede ser útil para capturar los niveles de significado más implícitos.
En concreto, hemos creado nuevos recursos que nos permitieron profundizar en nuestra hipótesis y desarrollar diversos enfoques para identificar dos maneras de lenguaje abusivo en tuits y títulos de periódicos: los discursos de odio y los estereotipos. Nuestra idea es combinar de manera fructífera el conocimiento general de los modelos lingüísticos y la información lingüística obtenida mediante la extracción de elementos lingüísticos específicos o entrenando simultáneamente el sistema al reconocimiento del lenguaje irónico en una arquitectura multitarea. Los resultados experimentales confirman que hacer que los sistemas sean conscientes del sarcasmo mejora el reconocimiento del discurso de odio y los estereotipos en los textos de las redes sociales, como los tuits. Al informarles de elementos lingüísticos específicos, se vuelven más sensibles a la identificación de estereotipos tanto en los tuits como en los títulos de periódicos. / [CA] La possibilitat de monitorar el contingut d'odi en línia a partir del que escriu la gent s'està convertint en un assumpte molt important per a diversos actors, com ara governs, empreses de TIC i professionals d'ONGs que implementen campanyes de sensibilització en resposta al preocupant augment dels abusos i de la incitació a l'odi en línia. L'abusive language és un terme genèric que s'utilitza per definir els continguts hostils generats per usuaris, que intimiden o inciten a la violència i al menyspreu, adreçant-se a grups vulnerables a les xarxes socials. Avui dia, aquests continguts estan molt estesos, i es troben també en altres tipus de textos com els articles i títols de diaris en línia.
S'han implementat diversos enfocaments en els darrers anys per donar suport a la identificació i monitoratge d'aquests fenòmens, lamentablement aquests estan lluny de resoldre el problema a causa de la complexitat interna del llenguatge abusiu i les dificultats per detectar-ne les formes més implícites.
A la nostra investigació de doctorat, hem examinat les qüestions relacionades amb la identificació automàtica del llenguatge abusiu en línia, investigant les diferents maneres d'hostilitat contra les dones, els immigrants i les comunitats culturals minoritàries, en idiomes com l'italià, l'anglès i l'espanyol. El marc multilingüe ens ha permès tenir un enfocament comparatiu per reflexionar sobre com s'expressa el discurs d'odi en diversos idiomes, i com s'han de representar aquestes expressions en el procés automàtic del text. L'anàlisi dels resultats dels diferents mètodes de classificació dels missatges en relació amb la presència del llenguatge abusiu ha tret a la llum algunes dificultats principalment vinculades a les manifestacions més implícites. Per exemple, en els casos en què es fan servir figures retòriques (com la ironia i el sarcasme), quan s'enforteixen ideologies (com la ideologia sexista) o esquemes cognitius (com els estereotips), o quan es postulen contràries a un tema de discussió.
Per abordar aquestes dificultats, hem proposat diferents solucions que també es poden aplicar a diferents gèneres textuals. En particular, hem observat que els aspectes cognitius i creatius del discurs de l'odi són més difícils de deduir automàticament dels textos. Alhora, també són elements molt recurrents com el cas del sarcasme un recurs retòric que tendeix a soscavar la precisió dels sistemes. De fet, per les seves peculiaritats, el sarcasme és adequat per emmascarar missatges ofensius, especialment en textos molt breus i informals com els publicats a Twitter. La nostra hipòtesi és que en informar el sistema sobre la presència del sarcasme, es milloraria la identificació dels missatges d'odi, fins i tot quan aquests estan disfressats de sarcàstics. Per això, és interessant estudiar com la introducció de coneixements lingüístics en models de detecció pot ser útil per capturar els nivells de significat més implícits.
En concret, hem creat nous recursos que ens han permès aprofundir en la nostra hipòtesi i desenvolupar diversos enfocaments per identificar dues maneres de llenguatge abusiu en tuits i títols de diaris: el discurs d'odi (o hate speech) i els estereotips. La nostra idea és combinar de manera fructífera el coneixement general dels models lingüístics i la informació lingüística obtinguda mitjançant l'extracció d'elements lingüístics específics o entrenant simultàniament el sistema al reconeixement del llenguatge irònic en una arquitectura multitasca. Els resultats experimentals confirmen que fer que els sistemes siguin conscients del sarcasme millora el reconeixement del discurs d'odi i els estereotips als textos de les xarxes socials, com els tuits. En informar-los d'elements lingüístics específics, esdevenen més sensibles a la identificació d'estereotips tant als tuits com als títols de diaris. / [EN] The possibility to monitor hateful content online on the basis of what people write is becoming an important topic for several actors such as governments, ICT companies, and NGO's operators conducting active campaigns in response to the worrying rise of online abuse and hate speech. Abusive language is a broad umbrella term which is commonly used for denoting different kinds of hostile user-generated contents that intimidate or incite to violence and hatred, targeting many vulnerable groups in social platforms. Such hateful contents are pervasive nowadays and can also be detected even in other kinds of texts, such as online newspapers.
Various approaches have been proposed in the last years to support the identification and monitoring of these phenomena, but unfortunately, they are far from solving the problem due to the inner complexity of abusive language, and to the difficulties to detect its implicit forms.
In our doctoral investigation, we have studied the issues related to automatic identification of abusive language online, investigating various forms of hostility against women, immigrants and cultural minority communities in languages such as Italian, English, and Spanish. The multilingual frame allowed us to have a comparative setting to reflect on how hateful contents are expressed in distinct languages and how these different ways are transposed in the automated processing of the text. The analysis of the results of different methods of classification of hateful and non-hateful messages revealed important challenges that lie principally on the implicitness of some manifestations of abusive language expressed through the use of figurative devices (i.e., irony and sarcasm), recall of inner ideologies (i.e., sexist ideology) or cognitive schemas (i.e., stereotypes), and expression of unfavorable stance.
To face these challenges, in this work, we have proposed distinct solutions applicable also to different textual genres. We observed that, in particular, cognitive and creative aspects of abusive language are harder to infer automatically from texts. At the same time they are often recurrent elements, such in the case of sarcasm, a figurative device that tends to affect the accuracy of the systems. Indeed, for its peculiarities, sarcasm is apt to disguise hurtful messages, especially in short and informal texts such as the ones posted on Twitter. Our hypothesis is that information about the presence of sarcasm could help to improve the detection of hateful messages, even when they are camouflaged as sarcastic. In this perspective, it is interesting to study how the injection of linguistic knowledge into detection models can be useful to capture implicit levels of meaning.
In particular, we created novel resources that allowed us to examine deeply our hypothesis and develop specific approaches for the detection of two forms of abusive language in tweets and headlines: hate speech and stereotypes. Our idea was to fruitfully combine general knowledge from language models and linguistic information, obtained with specific linguistic features and the injection of ironic language recognition within a multi-task learning framework. The experimental results confirm that the awareness of sarcasm helps systems to retrieve correctly hate speech and stereotypes in social media texts, such as tweets. Moreover, linguistic features make the system sensible to stereotypes in both tweets and news headlines. / This work was partially supported by various financial projects. Among them: the Spanish research project SomEMBED funded by Ministerio de Economía y Sostenibilidad (MINECO), the NII International Internship Program funded by JSPS KAKENHI, the Italian project M.EMO.RAI funded by RAI - Radiotelevisione Italiana Spa, the Italian project IhatePrejudice funded by Compagnia di San Paolo, and the European project “STERHEOTYPES” funded by Compagnia di San Paolo Foundation, Volkswagen Stiftung and Carlsberg Fondation. / Frenda, S. (2022). Sarcasm and Implicitness in Abusive Language Detection: A Multilingual Perspective [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/184015
|
Page generated in 0.0281 seconds