• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 221
  • 197
  • 4
  • 2
  • Tagged with
  • 421
  • 361
  • 360
  • 234
  • 117
  • 53
  • 50
  • 45
  • 44
  • 43
  • 41
  • 40
  • 38
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

TraceME: Traceability-based Method for Conceptual Model Evolution

Ruiz Carmona, Luz Marcela 23 May 2016 (has links)
[EN] Renewing software systems is one of the most cost-effective ways to protect software investment, which saves time, money and ensures uninterrupted access to technical support and product upgrades. There are several motivations to promote investment and scientific effort for specifying systems by means of conceptual models and supporting its evolution. In order to contribute to the requirements engineering field with automated software production methods, we design TraceME to cover the spectrum of activities from requirements to code focusing on organisational evolution. In this sense, the spectrum of activities involves various information system perspectives of analysis that need to be integrated. In this complex setting, traceability and conceptual models are key concepts. Mechanisms to trace software specifications from requirements to code are important to justify evolution processes; versions of information systems should be traced in order to get the connection between old and new specifications. Moreover, it is necessary to find mechanisms to facilitate change specifications, measurement, and interpretation. To design this thesis we follow Design Science by Roel Wieringa. Design Science gives us the hints on how to conduct the research, be rigorous, and put in practice scientific rules. Besides Design Science has been a key factor for structuring our research, we acknowledge the application of this framework since it has helps us to report clearly our findings. We build TraceME by making a method engineering effort, which shapes its fragmented nature in chunks. The architecture of TraceME opens a wide window of opportunities for its application in real world situations. To facilitate industrial adoption, we develop open source tools to support the implementation of the TraceME chunks. For example, one case study and one action-research protocols have been executed in two different organisations in Spain. The validation of TraceME has taken place in laboratory demonstrations, controlled experiments, action research and case study experiences in industry. Thanks to the validations various lessons learnt have been gathered and greatly influenced the maturity of the method. For example: the importance to consider end-users' perceptions for discovering needs to mitigate, and the significance to get knowledge from the application of TraceME in different contexts. The evidences from the validations demonstrate that TraceME is feasible to be applied to support evolution projects. In addition, future research is needed for promoting the implementation of TraceME. We envision short term and future-term work that motivate us to tackle the challenge to support evolution projects. / [ES] La evolución de sistemas software es una de las actividades mas importantes que permiten minimizar el tiempo de puesta en producción de actualizaciones y nuevos desarrollos, reducir los costos que implica desarrollar una aplicación desde cero, y además asegura el acceso ininterrumpido de servicios. Existen variadas motivaciones para promover la investigación y desarrollo de soluciones para especificar y evolucionar sistemas de información mediante modelos conceptuales. Para contribuir al campo de la ingeniería de requisitos con métodos automáticos de producción de software, hemos diseñado el método TraceME para cubrir el espectro de actividades desde requisitos a código con un enfoque de evolución organizacional. De este modo, el espectro de actividades involucra diferentes perspectivas de análisis de sistemas de información que necesitan ser integradas. En este escenario tan complejo, la trazabilidad y los modelos conceptuales son conceptos clave. Es necesario disponer de mecanismos para trazar especificaciones de software desde requisitos a código con el fin de justificar procesos de evolución. Las versiones de los sistemas de información deben ser trazables con el fin de establecer la conexión entre especificaciones obsoletas y actuales. Adicionalmente, es necesario encontrar mecanismos para facilitar la especificación del cambio, su medición e interpretación. Para diseñar esta tesis hemos seguido el marco de Design Science de Roel Wieringa. Design Science nos ha proporcionado las claves para conducir esta investigación, ser rigurosos y poner en práctica reglas científicas. Además de que Design Science ha sido un factor clave para estructurar nuestra investigación, reconocemos que la aplicación de este marco nos ha ayudado a reportar claramente nuestros hallazgos. Hemos aplicado ingeniería de métodos para diseñar y construir TraceME. Gracias a esto, la naturaleza de TraceME es conformada mediante fragmentos de método. La arquitectura de TraceME abre una amplia ventana de oportunidades para su aplicación en situaciones de la vida real. Para facilitar la adopción industrial de TraceME, hemos desarrollado herramientas de software libre para dar soporte a los fragmentos de TraceME. Por ejemplo, un caso de estudio y una experiencia de action research han sido ejecutadas en dos organizaciones en España. La validación de TraceME ha sido llevada a cabo mediante demostraciones de laboratorio, experimentos controlados, un caso de estudio y una experiencia de action research en industria. Como resultado, TraceME ha sido mejorado considerablemente; además hemos descubierto investigaciones a realizar a corto, mediano y largo plazo con el fin de implementar TraceME en la industria. Las evidencias obtenidas como resultado de las validaciones demuestra la factibilidad de TraceME para ser aplicado en proyectos de evolución organizacional. El trabajo futuro nos motiva a afrontar los retos que conlleva el soporte de proyectos de evolución de sistemas de información. / [CAT] L'evolució dels sistemes programari és una de les activitats més importants que permeten minimitzar el temps de posada en producció d'actualitzacions i nous desenvolupaments, reduir els costos que involucra desenvolupar una aplicació des de cero, a més d' assegurar l'accés ininterromput de serveis. Existixen diverses motivacions per promoure la investigació i desenvolupament de solucions per a especificar i evolucionar sistemes de informació mitjançant models conceptuals. Per tal de contribuir al camp de l'enginyeria de requisits amb mètodes automàtics de producció de programari, hem dissenyat el mètode TraceME per cobrir l'espectre d'activitats des de requisits a codi en un enfocament d'evolució organitzacional. Així, l'espectre d'activitats involucra diferents perspectives d'anàlisi de sistemes d'informació que necessiten ser integrades. En aquest escenari tan complex, la traçabilitat i els models conceptuals són conceptes clau. És necessari disposar de mecanismes per traçar especificacions de programari des de requisits a codi amb la fi de justificar processos d'evolució. Les versions dels sistemes d'informació deuen ser traçables amb la fi d'establir la connexió entre especificacions obsoletes i actuals. Addicionalment, és necessari trobar mecanismes per facilitar l'especificació del canvi, la seua mesura i interpretació. Per tal de dissenyar aquesta tesi, hem seguit el marc de Design Science de Roel Wieringa. Design Science ens ha proporcionat les claus per conduir aquesta investigació, ser rigorosos i posar en pràctica regles científiques. A més a més, Design Science ha sigut un factor clau per estructurar la nostra investigació, reconeixem que l'aplicació de aquest marc ens a ajudat a reportar clarament els nostres resultats. Hem aplicat enginyeria de mètodes per dissenyar i construir TraceME. Gràcies a açò, la natura de TraceME es conforma mitjançant fragments de mètodes. L'arquitectura de TraceME obri una ampla finestra d'oportunitats per a la seua aplicació en situacions de la vida real. Per facilitar l'adopció industrial de TraceME, hem desenvolupat ferramentes de programari lliure per tal de donar suport als fragments de TraceME. Per exemple, un cas d'estudi i una experiència de action research han sigut executades en dos organitzacions a Espanya. La validació de TraceME ha sigut portada a cap mitjançant demostracions de laboratori, experiments controlats , un cas d'estudi i una experiència de action research en l'industria. Com a resultat, TraceME ha sigut millorada considerablement; a més a més, hem descobert investigacions a realitzar a curt, mig i llarg termini amb la fi d'implementar TraceME a l'industria. Les evidències obtingudes com a resultat de les validacions, demostren la factibilitat de TraceME per ser aplicat en projectes d'evolució organitzacional. El treball futur presenta nous reptes que ens motiven a afrontar el suport de projectes d'evolució de sistemes d'informació. / Ruiz Carmona, LM. (2016). TraceME: Traceability-based Method for Conceptual Model Evolution [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/64553 / TESIS
402

Advanced Features in Protocol Verification: Theory, Properties, and Efficiency in Maude-NPA

Santiago Pinazo, Sonia 31 March 2015 (has links)
The area of formal analysis of cryptographic protocols has been an active one since the mid 80’s. The idea is to verify communication protocols that use encryption to guarantee secrecy and that use authentication of data to ensure security. Formal methods are used in protocol analysis to provide formal proofs of security, and to uncover bugs and security flaws that in some cases had remained unknown long after the original protocol publication, such as the case of the well known Needham-Schroeder Public Key (NSPK) protocol. In this thesis we tackle problems regarding the three main pillars of protocol verification: modelling capabilities, verifiable properties, and efficiency. This thesis is devoted to investigate advanced features in the analysis of cryptographic protocols tailored to the Maude-NPA tool. This tool is a model-checker for cryptographic protocol analysis that allows for the incorporation of different equational theories and operates in the unbounded session model without the use of data or control abstraction. An important contribution of this thesis is relative to theoretical aspects of protocol verification in Maude-NPA. First, we define a forwards operational semantics, using rewriting logic as the theoretical framework and the Maude programming language as tool support. This is the first time that a forwards rewriting-based semantics is given for Maude-NPA. Second, we also study the problem that arises in cryptographic protocol analysis when it is necessary to guarantee that certain terms generated during a state exploration are in normal form with respect to the protocol equational theory. We also study techniques to extend Maude-NPA capabilities to support the verification of a wider class of protocols and security properties. First, we present a framework to specify and verify sequential protocol compositions in which one or more child protocols make use of information obtained from running a parent protocol. Second, we present a theoretical framework to specify and verify protocol indistinguishability in Maude-NPA. This kind of properties aim to verify that an attacker cannot distinguish between two versions of a protocol: for example, one using one secret and one using another, as it happens in electronic voting protocols. Finally, this thesis contributes to improve the efficiency of protocol verification in Maude-NPA. We define several techniques which drastically reduce the state space, and can often yield a finite state space, so that whether the desired security property holds or not can in fact be decided automatically, in spite of the general undecidability of such problems. / Santiago Pinazo, S. (2015). Advanced Features in Protocol Verification: Theory, Properties, and Efficiency in Maude-NPA [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48527 / TESIS
403

Novel statistical approaches to text classification, machine translation and computer-assisted translation

Civera Saiz, Jorge 04 July 2008 (has links)
Esta tesis presenta diversas contribuciones en los campos de la clasificación automática de texto, traducción automática y traducción asistida por ordenador bajo el marco estadístico. En clasificación automática de texto, se propone una nueva aplicación llamada clasificación de texto bilingüe junto con una serie de modelos orientados a capturar dicha información bilingüe. Con tal fin se presentan dos aproximaciones a esta aplicación; la primera de ellas se basa en una asunción naive que contempla la independencia entre las dos lenguas involucradas, mientras que la segunda, más sofisticada, considera la existencia de una correlación entre palabras en diferentes lenguas. La primera aproximación dió lugar al desarrollo de cinco modelos basados en modelos de unigrama y modelos de n-gramas suavizados. Estos modelos fueron evaluados en tres tareas de complejidad creciente, siendo la más compleja de estas tareas analizada desde el punto de vista de un sistema de ayuda a la indexación de documentos. La segunda aproximación se caracteriza por modelos de traducción capaces de capturar correlación entre palabras en diferentes lenguas. En nuestro caso, el modelo de traducción elegido fue el modelo M1 junto con un modelo de unigramas. Este modelo fue evaluado en dos de las tareas más simples superando la aproximación naive, que asume la independencia entre palabras en differentes lenguas procedentes de textos bilingües. En traducción automática, los modelos estadísticos de traducción basados en palabras M1, M2 y HMM son extendidos bajo el marco de la modelización mediante mixturas, con el objetivo de definir modelos de traducción dependientes del contexto. Asimismo se extiende un algoritmo iterativo de búsqueda basado en programación dinámica, originalmente diseñado para el modelo M2, para el caso de mixturas de modelos M2. Este algoritmo de búsqueda n / Civera Saiz, J. (2008). Novel statistical approaches to text classification, machine translation and computer-assisted translation [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2502 / Palancia
404

Contractive Maps and Complexity Analysis in Fuzzy Quasi-Metric Spaces

Tirado Peláez, Pedro 04 September 2008 (has links)
En los últimos años se ha desarrollado una teoría matemática con propiedades robustas con el fin de fundamentar la Ciencia de la Computación. En este sentido, un avance significativo lo constituye el establecimiento de modelos matemáticos que miden la "distancia" entre programas y entre algoritmos, analizados según su complejidad computacional. En 1995, M. Schellekens inició el desarrollo de un modelo matemático para el análisis de la complejidad algorítmica basado en la construcción de una casi-métrica definida en el espacio de las funciones de complejidad, proporcionando una interpretación computacional adecuada del hecho de que un programa o algoritmo sea más eficiente que otro en todos su "inputs". Esta información puede extraerse en virtud del carácter asimétrico del modelo. Sin embargo, esta estructura no es aplicable al análisis de algoritmos cuya complejidad depende de dos parámetros. Por tanto, en esta tesis introduciremos un nuevo espacio casi-métrico de complejidad que proporcionará un modelo útil para el análisis de este tipo de algoritmos. Por otra parte, el espacio casi-métrico de complejidad no da una interpretación computacional del hecho de que un programa o algoritmo sea "sólo" asintóticamente más eficiente que otro. Los espacios casi-métricos difusos aportan un parámetro "t", cuya adecuada utilización puede originar una información extra sobre el proceso computacional a estudiar; por ello introduciremos la noción de casi-métrica difusa de complejidad, que proporciona un modelo satisfactorio para interpretar la eficiencia asintótica de las funciones de complejidad. En este contexto extenderemos los principales teoremas de punto fijo en espacios métricos difusos , utilizando una determinada noción de completitud, y obtendremos otros nuevos. Algunos de estos teoremas también se establecerán en el contexto general de los espacios casi-métricos difusos intuicionistas, de lo que resultarán condiciones de contracción menos fuertes. Los resultados obt / Tirado Peláez, P. (2008). Contractive Maps and Complexity Analysis in Fuzzy Quasi-Metric Spaces [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2961 / Palancia
405

Pattern recognition approaches for biomedical data in computer-assisted cancer research

García Gómez, Juan Miguel 12 May 2009 (has links)
El análisis sistémico de datos biomédicos procedentes de diferentes niveles biológicos abre amplias expectativas en el proceso de toma de decisiones médicas. Las nuevas tecnologías biomédicas permiten la interpretación del origen de las afecciones que sufren los pacientes, trasladando el paradigma de decisión hacia la medicina basada en la evidencia. Esta Tesis centra su atención en la ayuda al diagnóstico del cáncer asistida por ordenador. El objetivo de nuestro estudio es obtener unos resultados de alto acierto en clasificación, que ofrezcan transparencia en su interpretación mediante conocimiento médico y capacidad de generalización cuando se aplican a pacientes procedentes de múltiples centros estudiados con posterioridad. Los aspectos técnicos cubiertos en esta Tesis incluyen el procesamiento, modelado, extracción de características, y combinación de datos biomédicos; así como la inferencia y evaluación de modelos predictivos de dichos datos y la integración de los modelos predictivos en sistemas de ayuda a la decisión para entornos clínicos. Concretamente, estos puntos se abordan para dos problemas médicos: el diagnóstico de Tumores de Partes Blandas (TPB) y, especialmente, el diagnóstico de Tumores Cerebrales (TC). En los desarrollos realizados para el problema de TPB con hallazgos de imagen se alcanzó una alta eficacia en la clasificación basada en Reconocimiento de Formas de tumores según su carácter benigno o maligno. Un sistema de ayuda a la decisión especializado para el problema de TPB fue diseñado e implementado a partir de los clasificadores aprendidos a partir de una base de datos multicéntrica. Las contribuciones de esta Tesis al estudio de Tumores Cerebrales incluyen el análisis de señales biomédicas in-vivo y ex-vivo del paciente. Ha sido propuesta una nueva aproximación para la combinación de Espectros de Resonancia Magnética (ERM) adquiridos para un mismo paciente con diferentes tiempos de eco (TE corto y TE largo) ha sido propuesta. También se / García Gómez, JM. (2009). Pattern recognition approaches for biomedical data in computer-assisted cancer research [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4602 / Palancia
406

Ingeniería de conocimiento para la mejora de la orientación académica (2015-2020)

Startseva, Elena 11 February 2021 (has links)
Elegir el grado universitario que van a cursar es una decisión muy importante para muchos jóvenes que carecen de experiencias previas en este sentido. El objetivo principal de este trabajo es construir el sistema de apoyo a la toma de decisión sobre una base de conocimiento modular. En este caso, los módulos que definen las directrices de capacitación se forman conjuntamente con los expertos y se fundan en el método de Holland. Permitirá al usuario, en primer lugar, definir una modalidad académica elegida en la escuela secundaria y solo después ser definido con una carrera universitaria, dentro de la rama de conocimiento establecida. Se ha desarrollado BPMN-modelo del proceso a la toma de decisiones para elegir la mejor carrera universitaria. Se han identificado los factores significativos con método de análisis jerárquico, el efecto de los cuales se correlaciona directamente con los resultados de elección de la carrera universitaria y, además, afectan al rendimiento de los estudiantes. Se ha desarrollado la ontología con las interrelaciones entre los factores clave. Se ha formado del principio modular un base de conocimiento. Se han elaborado satisfactoriamente las reglas de entrada a la universidad, las reglas de elección de la rama de los estudios universitarios, y las reglas para mejorar el rendimiento académico con la finalización satisfactoria de los estudios universitarios. Con los resultados obtenidos y que se presenten en el trabajo, podemos concluir que se pueda lograr el objetivo principal del estudio para optimizar tiempo dedicado a los estudios y mejorar la calidad de vida y el rendimiento académico de los estudiantes de una carrera universitaria. Además, permite poder anticipar los itinerarios a elegir durante la etapa de educación secundaria para así incrementar su preparación.
407

Detecting Deception, Partisan, and Social Biases

Sánchez Junquera, Juan Javier 06 September 2022 (has links)
Tesis por compendio / [ES] En la actualidad, el mundo político tiene tanto o más impacto en la sociedad que ésta en el mundo político. Los líderes o representantes de partidos políticos hacen uso de su poder en los medios de comunicación, para modificar posiciones ideológicas y llegar al pueblo con el objetivo de ganar popularidad en las elecciones gubernamentales.A través de un lenguaje engañoso, los textos políticos pueden contener sesgos partidistas y sociales que minan la percepción de la realidad. Como resultado, los seguidores de una ideología, o miembros de una categoría social, se sienten amenazados por otros grupos sociales o ideológicos, o los perciben como competencia, derivándose así una polarización política con agresiones físicas y verbales. La comunidad científica del Procesamiento del Lenguaje Natural (NLP, según sus siglas en inglés) contribuye cada día a detectar discursos de odio, insultos, mensajes ofensivos, e información falsa entre otras tareas computacionales que colindan con ciencias sociales. Sin embargo, para abordar tales tareas, es necesario hacer frente a diversos problemas entre los que se encuentran la dificultad de tener textos etiquetados, las limitaciones de no trabajar con un equipo interdisciplinario, y los desafíos que entraña la necesidad de soluciones interpretables por el ser humano. Esta tesis se enfoca en la detección de sesgos partidistas y sesgos sociales, tomando como casos de estudio el hiperpartidismo y los estereotipos sobre inmigrantes. Para ello, se propone un modelo basado en una técnica de enmascaramiento de textos capaz de detectar lenguaje engañoso incluso en temas controversiales, siendo capaz de capturar patrones del contenido y el estilo de escritura. Además, abordamos el problema usando modelos basados en BERT, conocidos por su efectividad al capturar patrones sintácticos y semánticos sobre las mismas representaciones de textos. Ambos enfoques, la técnica de enmascaramiento y los modelos basados en BERT, se comparan en términos de desempeño y explicabilidad en la detección de hiperpartidismo en noticias políticas y estereotipos sobre inmigrantes. Para la identificación de estos últimos, se propone una nueva taxonomía con fundamentos teóricos en sicología social, y con la que se etiquetan textos extraídos de intervenciones partidistas llevadas a cabo en el Parlamento español. Los resultados muestran que los enfoques propuestos contribuyen al estudio del hiperpartidismo, así como a identif i car cuándo los ciudadanos y políticos enmarcan a los inmigrantes en una imagen de víctima, recurso económico, o amenaza. Finalmente, en esta investigación interdisciplinaria se demuestra que los estereotipos sobre inmigrantes son usados como estrategia retórica en contextos políticos. / [CA] Avui, el món polític té tant o més impacte en la societat que la societat en el món polític. Els líders polítics, o representants dels partits polítics, fan servir el seu poder als mitjans de comunicació per modif i car posicions ideològiques i arribar al poble per tal de guanyar popularitat a les eleccions governamentals. Mitjançant un llenguatge enganyós, els textos polítics poden contenir biaixos partidistes i socials que soscaven la percepció de la realitat. Com a resultat, augmenta la polarització política nociva perquè els seguidors d'una ideologia, o els membres d'una categoria social, veuen els altres grups com una amenaça o competència, que acaba en agressions verbals i físiques amb resultats desafortunats. La comunitat de Processament del llenguatge natural (PNL) té cada dia noves aportacions amb enfocaments que ajuden a detectar discursos d'odi, insults, missatges ofensius i informació falsa, entre altres tasques computacionals relacionades amb les ciències socials. No obstant això, molts obstacles impedeixen eradicar aquests problemes, com ara la dif i cultat de tenir textos anotats, les limitacions dels enfocaments no interdisciplinaris i el repte afegit per la necessitat de solucions interpretables. Aquesta tesi se centra en la detecció de biaixos partidistes i socials, prenent com a cas pràctic l'hiperpartidisme i els estereotips sobre els immigrants. Proposem un model basat en una tècnica d'emmascarament que permet detectar llenguatge enganyós en temes polèmics i no polèmics, capturant pa-trons relacionats amb l'estil i el contingut. A més, abordem el problema avaluant models basats en BERT, coneguts per ser efectius per capturar patrons semàntics i sintàctics en la mateixa representació. Comparem aquests dos enfocaments (la tècnica d'emmascarament i els models basats en BERT) en termes de rendiment i les seves solucions explicables en la detecció de l'hiperpartidisme en les notícies polítiques i els estereotips d'immigrants. Per tal d'identificar els estereotips dels immigrants, proposem una nova tax-onomia recolzada per la teoria de la psicologia social i anotem un conjunt de dades de les intervencions partidistes al Parlament espanyol. Els resultats mostren que els nostres models poden ajudar a estudiar l'hiperpartidisme i identif i car diferents marcs en què els ciutadans i els polítics perceben els immigrants com a víctimes, recursos econòmics o amenaces. Finalment, aquesta investigació interdisciplinària demostra que els estereotips dels immigrants s'utilitzen com a estratègia retòrica en contextos polítics. / [EN] Today, the political world has as much or more impact on society than society has on the political world. Political leaders, or representatives of political parties, use their power in the media to modify ideological positions and reach the people in order to gain popularity in government elections. Through deceptive language, political texts may contain partisan and social biases that undermine the perception of reality. As a result, harmful political polarization increases because the followers of an ideology, or members of a social category, see other groups as a threat or competition, ending in verbal and physical aggression with unfortunate outcomes. The Natural Language Processing (NLP) community has new contri-butions every day with approaches that help detect hate speech, insults, of f ensive messages, and false information, among other computational tasks related to social sciences. However, many obstacles prevent eradicating these problems, such as the dif f i culty of having annotated texts, the limitations of non-interdisciplinary approaches, and the challenge added by the necessity of interpretable solutions. This thesis focuses on the detection of partisan and social biases, tak-ing hyperpartisanship and stereotypes about immigrants as case studies. We propose a model based on a masking technique that can detect deceptive language in controversial and non-controversial topics, capturing patterns related to style and content. Moreover, we address the problem by evalu-ating BERT-based models, known to be ef f ective at capturing semantic and syntactic patterns in the same representation. We compare these two approaches (the masking technique and the BERT-based models) in terms of their performance and the explainability of their decisions in the detection of hyperpartisanship in political news and immigrant stereotypes. In order to identify immigrant stereotypes, we propose a new taxonomy supported by social psychology theory and annotate a dataset from partisan interventions in the Spanish parliament. Results show that our models can help study hyperpartisanship and identify dif f erent frames in which citizens and politicians perceive immigrants as victims, economic resources, or threat. Finally, this interdisciplinary research proves that immigrant stereotypes are used as a rhetorical strategy in political contexts. / This PhD thesis was funded by the MISMIS-FAKEnHATE research project (PGC2018-096212-B-C31) of the Spanish Ministry of Science and Innovation. / Sánchez Junquera, JJ. (2022). Detecting Deception, Partisan, and Social Biases [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/185784 / TESIS / Compendio
408

Sarcasm and Implicitness in Abusive Language Detection: A Multilingual Perspective

Frenda, Simona 12 July 2022 (has links)
[ES] La posibilidad de monitorear el contenido de odio en línea a partir de lo que escribe la gente se está convirtiendo en un asunto muy importante para varios actores, como gobiernos, empresas de TIC y profesionales de ONG's que implementan campañas de sensibilización en respuesta al preocupante aumento de los abusos y de la incitación al odio en línea. El abusive language es un término genérico que se utiliza para definir los contenidos hostiles generados por usuarios, que intimidan o incitan a la violencia y al desprecio, dirigiéndose a grupos vulnerables en las redes sociales. Hoy en día, estos contenidos están muy extendidos, y se encuentran también en otros tipos de textos como los artículos y títulos de periódicos online. Se han implementado varios enfoques en los últimos años para apoyar la identificación y el monitoreo de estos fenómenos, lamentablemente estos están lejos de resolver el problema debido a la complejidad interna del lenguaje abusivo y las dificultades para detectar sus formas más implícitas. En nuestra investigación de doctorado, hemos examinado las cuestiones relacionadas con la identificación automática del lenguaje abusivo en línea, investigando las diferentes maneras de hostilidad contra las mujeres, los inmigrantes y las comunidades culturales minoritarias, en idiomas como el italiano, el inglés y el español. El marco multilingüe nos ha permitido tener un enfoque comparativo para reflexionar sobre cómo se expresa el discurso de odio en varios idiomas, y cómo dichas expresiones se deben representar en el proceso automático del texto. El análisis de los resultados de los distintos métodos de clasificación de los mensajes en relación con la presencia del lenguaje abusivo, ha sacado a la luz algunas dificultades principalmente vinculadas a sus manifestaciones más implícitas. Por ejemplo, en los casos en que se utilizan figuras retóricas (como la ironía y el sarcasmo), cuando se fortalecen ideologías (como la ideología sexista) o esquemas cognitivos (como los estereotipos), o cuando se postulan contrarias a un tema de discusión. Para abordar estas dificultades, hemos propuesto distintas soluciones que también se pueden aplicar a diferentes géneros textuales. En particular, hemos observado que los aspectos cognitivos y creativos del discurso del odio son más difíciles de deducir automáticamente de los textos. Al mismo tiempo, también son elementos muy recurrentes como el caso del sarcasmo un recurso retórico que tiende a socavar la precisión de los sistemas. De hecho, por sus peculiaridades, el sarcasmo es adecuado para enmascarar mensajes ofensivos, especialmente en textos muy breves e informales. Nuestra hipótesis es que al informar al sistema sobre la presencia del sarcasmo, se mejoraría la identificación de los mensajes de odio, incluso cuando estos están disfrazados de sarcásticos. Para ello, es interesante estudiar cómo la introducción de conocimientos lingüísticos en modelos de detección puede ser útil para capturar los niveles de significado más implícitos. En concreto, hemos creado nuevos recursos que nos permitieron profundizar en nuestra hipótesis y desarrollar diversos enfoques para identificar dos maneras de lenguaje abusivo en tuits y títulos de periódicos: los discursos de odio y los estereotipos. Nuestra idea es combinar de manera fructífera el conocimiento general de los modelos lingüísticos y la información lingüística obtenida mediante la extracción de elementos lingüísticos específicos o entrenando simultáneamente el sistema al reconocimiento del lenguaje irónico en una arquitectura multitarea. Los resultados experimentales confirman que hacer que los sistemas sean conscientes del sarcasmo mejora el reconocimiento del discurso de odio y los estereotipos en los textos de las redes sociales, como los tuits. Al informarles de elementos lingüísticos específicos, se vuelven más sensibles a la identificación de estereotipos tanto en los tuits como en los títulos de periódicos. / [CA] La possibilitat de monitorar el contingut d'odi en línia a partir del que escriu la gent s'està convertint en un assumpte molt important per a diversos actors, com ara governs, empreses de TIC i professionals d'ONGs que implementen campanyes de sensibilització en resposta al preocupant augment dels abusos i de la incitació a l'odi en línia. L'abusive language és un terme genèric que s'utilitza per definir els continguts hostils generats per usuaris, que intimiden o inciten a la violència i al menyspreu, adreçant-se a grups vulnerables a les xarxes socials. Avui dia, aquests continguts estan molt estesos, i es troben també en altres tipus de textos com els articles i títols de diaris en línia. S'han implementat diversos enfocaments en els darrers anys per donar suport a la identificació i monitoratge d'aquests fenòmens, lamentablement aquests estan lluny de resoldre el problema a causa de la complexitat interna del llenguatge abusiu i les dificultats per detectar-ne les formes més implícites. A la nostra investigació de doctorat, hem examinat les qüestions relacionades amb la identificació automàtica del llenguatge abusiu en línia, investigant les diferents maneres d'hostilitat contra les dones, els immigrants i les comunitats culturals minoritàries, en idiomes com l'italià, l'anglès i l'espanyol. El marc multilingüe ens ha permès tenir un enfocament comparatiu per reflexionar sobre com s'expressa el discurs d'odi en diversos idiomes, i com s'han de representar aquestes expressions en el procés automàtic del text. L'anàlisi dels resultats dels diferents mètodes de classificació dels missatges en relació amb la presència del llenguatge abusiu ha tret a la llum algunes dificultats principalment vinculades a les manifestacions més implícites. Per exemple, en els casos en què es fan servir figures retòriques (com la ironia i el sarcasme), quan s'enforteixen ideologies (com la ideologia sexista) o esquemes cognitius (com els estereotips), o quan es postulen contràries a un tema de discussió. Per abordar aquestes dificultats, hem proposat diferents solucions que també es poden aplicar a diferents gèneres textuals. En particular, hem observat que els aspectes cognitius i creatius del discurs de l'odi són més difícils de deduir automàticament dels textos. Alhora, també són elements molt recurrents com el cas del sarcasme un recurs retòric que tendeix a soscavar la precisió dels sistemes. De fet, per les seves peculiaritats, el sarcasme és adequat per emmascarar missatges ofensius, especialment en textos molt breus i informals com els publicats a Twitter. La nostra hipòtesi és que en informar el sistema sobre la presència del sarcasme, es milloraria la identificació dels missatges d'odi, fins i tot quan aquests estan disfressats de sarcàstics. Per això, és interessant estudiar com la introducció de coneixements lingüístics en models de detecció pot ser útil per capturar els nivells de significat més implícits. En concret, hem creat nous recursos que ens han permès aprofundir en la nostra hipòtesi i desenvolupar diversos enfocaments per identificar dues maneres de llenguatge abusiu en tuits i títols de diaris: el discurs d'odi (o hate speech) i els estereotips. La nostra idea és combinar de manera fructífera el coneixement general dels models lingüístics i la informació lingüística obtinguda mitjançant l'extracció d'elements lingüístics específics o entrenant simultàniament el sistema al reconeixement del llenguatge irònic en una arquitectura multitasca. Els resultats experimentals confirmen que fer que els sistemes siguin conscients del sarcasme millora el reconeixement del discurs d'odi i els estereotips als textos de les xarxes socials, com els tuits. En informar-los d'elements lingüístics específics, esdevenen més sensibles a la identificació d'estereotips tant als tuits com als títols de diaris. / [EN] The possibility to monitor hateful content online on the basis of what people write is becoming an important topic for several actors such as governments, ICT companies, and NGO's operators conducting active campaigns in response to the worrying rise of online abuse and hate speech. Abusive language is a broad umbrella term which is commonly used for denoting different kinds of hostile user-generated contents that intimidate or incite to violence and hatred, targeting many vulnerable groups in social platforms. Such hateful contents are pervasive nowadays and can also be detected even in other kinds of texts, such as online newspapers. Various approaches have been proposed in the last years to support the identification and monitoring of these phenomena, but unfortunately, they are far from solving the problem due to the inner complexity of abusive language, and to the difficulties to detect its implicit forms. In our doctoral investigation, we have studied the issues related to automatic identification of abusive language online, investigating various forms of hostility against women, immigrants and cultural minority communities in languages such as Italian, English, and Spanish. The multilingual frame allowed us to have a comparative setting to reflect on how hateful contents are expressed in distinct languages and how these different ways are transposed in the automated processing of the text. The analysis of the results of different methods of classification of hateful and non-hateful messages revealed important challenges that lie principally on the implicitness of some manifestations of abusive language expressed through the use of figurative devices (i.e., irony and sarcasm), recall of inner ideologies (i.e., sexist ideology) or cognitive schemas (i.e., stereotypes), and expression of unfavorable stance. To face these challenges, in this work, we have proposed distinct solutions applicable also to different textual genres. We observed that, in particular, cognitive and creative aspects of abusive language are harder to infer automatically from texts. At the same time they are often recurrent elements, such in the case of sarcasm, a figurative device that tends to affect the accuracy of the systems. Indeed, for its peculiarities, sarcasm is apt to disguise hurtful messages, especially in short and informal texts such as the ones posted on Twitter. Our hypothesis is that information about the presence of sarcasm could help to improve the detection of hateful messages, even when they are camouflaged as sarcastic. In this perspective, it is interesting to study how the injection of linguistic knowledge into detection models can be useful to capture implicit levels of meaning. In particular, we created novel resources that allowed us to examine deeply our hypothesis and develop specific approaches for the detection of two forms of abusive language in tweets and headlines: hate speech and stereotypes. Our idea was to fruitfully combine general knowledge from language models and linguistic information, obtained with specific linguistic features and the injection of ironic language recognition within a multi-task learning framework. The experimental results confirm that the awareness of sarcasm helps systems to retrieve correctly hate speech and stereotypes in social media texts, such as tweets. Moreover, linguistic features make the system sensible to stereotypes in both tweets and news headlines. / This work was partially supported by various financial projects. Among them: the Spanish research project SomEMBED funded by Ministerio de Economía y Sostenibilidad (MINECO), the NII International Internship Program funded by JSPS KAKENHI, the Italian project M.EMO.RAI funded by RAI - Radiotelevisione Italiana Spa, the Italian project IhatePrejudice funded by Compagnia di San Paolo, and the European project “STERHEOTYPES” funded by Compagnia di San Paolo Foundation, Volkswagen Stiftung and Carlsberg Fondation. / Frenda, S. (2022). Sarcasm and Implicitness in Abusive Language Detection: A Multilingual Perspective [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/184015 / TESIS
409

Deep Neural Networks for Automatic Speech-To-Speech Translation of Open Educational Resources

Pérez González de Martos, Alejandro Manuel 12 July 2022 (has links)
[ES] En los últimos años, el aprendizaje profundo ha cambiado significativamente el panorama en diversas áreas del campo de la inteligencia artificial, entre las que se incluyen la visión por computador, el procesamiento del lenguaje natural, robótica o teoría de juegos. En particular, el sorprendente éxito del aprendizaje profundo en múltiples aplicaciones del campo del procesamiento del lenguaje natural tales como el reconocimiento automático del habla (ASR), la traducción automática (MT) o la síntesis de voz (TTS), ha supuesto una mejora drástica en la precisión de estos sistemas, extendiendo así su implantación a un mayor rango de aplicaciones en la vida real. En este momento, es evidente que las tecnologías de reconocimiento automático del habla y traducción automática pueden ser empleadas para producir, de forma efectiva, subtítulos multilingües de alta calidad de contenidos audiovisuales. Esto es particularmente cierto en el contexto de los vídeos educativos, donde las condiciones acústicas son normalmente favorables para los sistemas de ASR y el discurso está gramaticalmente bien formado. Sin embargo, en el caso de TTS, aunque los sistemas basados en redes neuronales han demostrado ser capaces de sintetizar voz de un realismo y calidad sin precedentes, todavía debe comprobarse si esta tecnología está lo suficientemente madura como para mejorar la accesibilidad y la participación en el aprendizaje en línea. Además, existen diversas tareas en el campo de la síntesis de voz que todavía suponen un reto, como la clonación de voz inter-lingüe, la síntesis incremental o la adaptación zero-shot a nuevos locutores. Esta tesis aborda la mejora de las prestaciones de los sistemas actuales de síntesis de voz basados en redes neuronales, así como la extensión de su aplicación en diversos escenarios, en el contexto de mejorar la accesibilidad en el aprendizaje en línea. En este sentido, este trabajo presta especial atención a la adaptación a nuevos locutores y a la clonación de voz inter-lingüe, ya que los textos a sintetizar se corresponden, en este caso, a traducciones de intervenciones originalmente en otro idioma. / [CA] Durant aquests darrers anys, l'aprenentatge profund ha canviat significativament el panorama en diverses àrees del camp de la intel·ligència artificial, entre les quals s'inclouen la visió per computador, el processament del llenguatge natural, robòtica o la teoria de jocs. En particular, el sorprenent èxit de l'aprenentatge profund en múltiples aplicacions del camp del processament del llenguatge natural, com ara el reconeixement automàtic de la parla (ASR), la traducció automàtica (MT) o la síntesi de veu (TTS), ha suposat una millora dràstica en la precisió i qualitat d'aquests sistemes, estenent així la seva implantació a un ventall més ampli a la vida real. En aquest moment, és evident que les tecnologies de reconeixement automàtic de la parla i traducció automàtica poden ser emprades per a produir, de forma efectiva, subtítols multilingües d'alta qualitat de continguts audiovisuals. Això és particularment cert en el context dels vídeos educatius, on les condicions acústiques són normalment favorables per als sistemes d'ASR i el discurs està gramaticalment ben format. No obstant això, al cas de TTS, encara que els sistemes basats en xarxes neuronals han demostrat ser capaços de sintetitzar veu d'un realisme i qualitat sense precedents, encara s'ha de comprovar si aquesta tecnologia és ja prou madura com per millorar l'accessibilitat i la participació en l'aprenentatge en línia. A més, hi ha diverses tasques al camp de la síntesi de veu que encara suposen un repte, com ara la clonació de veu inter-lingüe, la síntesi incremental o l'adaptació zero-shot a nous locutors. Aquesta tesi aborda la millora de les prestacions dels sistemes actuals de síntesi de veu basats en xarxes neuronals, així com l'extensió de la seva aplicació en diversos escenaris, en el context de millorar l'accessibilitat en l'aprenentatge en línia. En aquest sentit, aquest treball presta especial atenció a l'adaptació a nous locutors i a la clonació de veu interlingüe, ja que els textos a sintetitzar es corresponen, en aquest cas, a traduccions d'intervencions originalment en un altre idioma. / [EN] In recent years, deep learning has fundamentally changed the landscapes of a number of areas in artificial intelligence, including computer vision, natural language processing, robotics, and game theory. In particular, the striking success of deep learning in a large variety of natural language processing (NLP) applications, including automatic speech recognition (ASR), machine translation (MT), and text-to-speech (TTS), has resulted in major accuracy improvements, thus widening the applicability of these technologies in real-life settings. At this point, it is clear that ASR and MT technologies can be utilized to produce cost-effective, high-quality multilingual subtitles of video contents of different kinds. This is particularly true in the case of transcription and translation of video lectures and other kinds of educational materials, in which the audio recording conditions are usually favorable for the ASR task, and there is a grammatically well-formed speech. However, although state-of-the-art neural approaches to TTS have shown to drastically improve the naturalness and quality of synthetic speech over conventional concatenative and parametric systems, it is still unclear whether this technology is already mature enough to improve accessibility and engagement in online learning, and particularly in the context of higher education. Furthermore, advanced topics in TTS such as cross-lingual voice cloning, incremental TTS or zero-shot speaker adaptation remain an open challenge in the field. This thesis is about enhancing the performance and widening the applicability of modern neural TTS technologies in real-life settings, both in offline and streaming conditions, in the context of improving accessibility and engagement in online learning. Thus, particular emphasis is placed on speaker adaptation and cross-lingual voice cloning, as the input text corresponds to a translated utterance in this context. / Pérez González De Martos, AM. (2022). Deep Neural Networks for Automatic Speech-To-Speech Translation of Open Educational Resources [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/184019 / TESIS / Premios Extraordinarios de tesis doctorales
410

User eXperience evaluation on university virtual learning through sentiment analysis

Sanchis Font, Rosario 12 June 2023 (has links)
Tesis por compendio / [ES] El uso de nuevas tecnologías y el número de usuarios de sistemas de enseñanza online universitaria se han extendido alrededor del mundo en las últimas décadas, mostrando un mayor incremento con la propagación de la pandemia Covid-19 desde 2020. Adicionalmente, la normativa ISO 9241-210:2019 establece los estándares internacionales de calidad para diseñar productos, servicios y sistemas de interacción persona-ordenador que cumplan con requisitos de usabilidad, accesibilidad y de experiencia de usuario (User eXperience - UX). Por tanto, el concepto de UX ha cobrado mucha importancia como requisito de calidad. Para diversos autores, la UX es un concepto multidimensional que incluye las motivaciones, sentimientos y necesidades de los usuarios finales. Por otra parte, el Objetivo de Desarrollo Sostenible (ODS) 4 de la Organización de las Naciones Unidas (ONU) para el 2030 persigue asegurar a nivel global una educación inclusiva, igualitaria, para todos y de calidad. En este sentido, con el fin de diseñar interfaces y experiencias de aprendizaje en entornos universitarios que respeten todas especificaciones de calidad se requiere evaluar previamente la UX de estos entornos de manera automática y precisa. Por tanto, el objetivo principal de esta tesis es identificar las características concretas más relevantes en la UX de entornos de e-learning universitarios que permitan analizar específica y automáticamente el sentimiento de los estudiantes con el fin de asentar las bases para diseñar plataformas de aprendizaje virtual centradas en los usuarios. Con esta finalidad, el estudio plantea analizar las necesidades y sentimientos de los estudiantes on-line universitarios con métodos digitales, avanzados y eficientes de inteligencia artificial. Por ello, el presente proyecto investiga la aplicación de modelos de aprendizaje automático de análisis de sentimiento para la evaluación UX. Estas técnicas de inteligencia artificial se han aplicado sobre las respuestas recibidas de entre los más de 2.000 estudiantes universitarios encuestados procedentes de estudios de posgrado online y de cursos en línea masivos y abiertos (MOOCs). Los resultados presentan las bases de un modelo que permite clasificar ontológicamente categorías o aspectos de la educación en línea universitaria y conocer la polaridad del sentimiento de los usuarios respecto a su experiencia e-learning de manera automática. De este modo, se han podido conocer las opiniones de los estudiantes de manera automatizada con respecto a categorías claves de la enseñanza digital. Además, los comentarios de los estudiantes se han clasificado en distintas dimensiones UX e-learning o UXEL (Conexiones Sociales, y Recursos y Herramientas de Aprendizaje). Así mismo, se ha identificado la polaridad del sentimiento para cada dimensión. En resumen, este trabajo ha generado importantes contribuciones a la comunidad científica. En primer lugar, una adaptación del cuestionario validado UEQ-S integrado y adaptado a tres plataformas de e-learning para cursos específicos de postgrado en la Universitat de València y en la Universidad Rey Juan Carlos; y para MOOCs en la Universitat Politècnica de València. En segundo lugar, esta tesis ha generado una aplicación innovadora de métodos de análisis de sentimiento y aprendizaje automático mediante el procesamiento del lenguaje natural para la evaluación de la experiencia de usuario de estudiantes universitarios online. Así, este método proporciona el análisis de las opiniones de los alumnos y las clasifica según su polaridad en positivas, negativas o neutras. Y en tercer lugar, este trabajo científico aporta una ontología propia de aspectos para la experiencia de aprendizaje virtual asociada a dimensiones UX con herramientas de análisis de sentimiento. Esta ontología clasifica la polaridad de las opiniones de los alumnos por categorías e-learning: VLE, Profesor, Alumno, Sonido, Imagen, Material, Ejercicio, Evaluación y y Comunicación. / [CA] L'ús de noves tecnologies i el nombre d'usuaris de sistemes d'ensenyament en línia universitària s'han estés al voltant del món en les últimes dècades, mostrant un major increment amb la propagació de la pandèmia COVID-19 des de 2020. Addicionalment, la normativa ISO 9241-210:2019 estableix els estàndards internacionals de qualitat per a dissenyar productes, serveis i sistemes d'interacció persona-ordenador que complisquen amb requisits d'usabilitat, accessibilitat i d'experiència d'usuari (User eXperience - UX). Per tant, el concepte de UX ha cobrat molta importància com a requisit de qualitat. Per a diversos autors, la UX és un concepte multidimensional que inclou les motivacions, sentiments i necessitats dels usuaris finals. D'altra banda, l'Objectiu de Desenvolupament Sostenible (ODS) 4 de l'Organització de les Nacions Unides (ONU) per al 2030 persegueix assegurar a nivell global una educació inclusiva, igualitària, per a tots i de qualitat. En aquest sentit, amb la finalitat de dissenyar interfícies i experiències d'aprenentatge en entorns universitaris que respecten totes especificacions de qualitat es requereix avaluar prèviament la UX d'aquests entorns de manera automàtica i precisa. Per tant, l'objectiu principal d'aquesta tesi és identificar les característiques concretes més rellevants en l'experiència d'usuari d'entorns d'e-learning universitaris que permeten analitzar específica i automàticament el sentiment dels estudiants amb la finalitat d'assentar les bases per a dissenyar plataformes d'aprenentatge virtual centrades en els usuaris. Amb aquesta finalitat, l'estudi planteja analitzar les necessitats i sentiments dels estudiants en línia universitaris amb mètodes digitals, avançats i eficients d'intel·ligència artificial. Per això, el present projecte investiga l'aplicació de models d'aprenentatge automàtic d'anàlisi de sentiment per a l'avaluació de la UX. Aquestes tècniques d'intel·ligència artificial s'han aplicat sobre les respostes rebudes d'entre els més de 2.000 estudiants universitaris enquestats procedents d'estudis de postgrau en línia i de cursos massius en línia en obert (MOOCs). Els resultats presenten les bases d'un model que permet classificar ontològicament categories o aspectes de l'educació en línia universitària i conéixer la polaritat del sentiment dels usuaris respecte a la seua experiència e-learning automàticament. D'aquesta manera, s'han pogut conéixer les opinions dels estudiants de manera automatitzada respecte a categories claus de l'ensenyament digital. A més, s'han classificat els comentaris dels estudiants en diferents dimensions UX e-learning o UXEL. D'aquesta manera, s'han identificat la polaritat del sentiment per a cada dimensió. En resum, aquest treball ha generat importants contribucions a la comunitat científica. En primer lloc, una adaptació del qüestionari validat UEQ-S integrat i adaptat a tres plataformes d'e-learning per a cursos específics de postgrau a la Universitat de València i en la Universidad Rey Juan Carlos; i per a MOOCs a la Universitat Politècnica de València. En segon lloc, aquesta tesi ha generat una aplicació innovadora de mètodes d'anàlisis de sentiment i aprenentatge automàtic mitjançant el processament del llenguatge natural per a l'avaluació de l'experiència d'usuari d'estudiants universitaris en línia. Així, aquest mètode proporciona l'anàlisi de les opinions dels alumnes i les classifica segons la seua polaritat en positives, negatives o neutres. I en tercer lloc, aquest treball científic aporta una ontologia pròpia d'aspectes per a l'experiència d'aprenentatge virtual associada a dimensions UX. Aquesta ontologia utilitzada amb eines d'anàlisis de sentiment, permet classificar la polaritat de les opinions dels alumnes per categories clau de l'e-learning (VLE, Professor, Alumne, So, Imatge, Material, Exercici, Avaluació i Comunicació) i agrupar els comentaris en tres dimensions UXEL (VLE, Connexions Socials, i Recursos i Eines d'Aprenentatge). / [EN] The use of new technologies and the number of users of university online learning systems have spread around the world in the last decades, showing a further increase with the spread of the Covid-19 pandemic since 2020. Additionally, ISO 9241-210:2019 sets international quality standards for designing human-computer interaction products, services, and systems that meet usability, accessibility, and User eXperience (UX) requirements. Therefore, the concept of UX has become very important as a quality requirement. For several authors, UX is a multidimensional concept that includes the motivations, feelings, and needs of end users. On the other hand, the United Nations' (UN) Sustainable Development Goal (SDG) 4 for 2030 aims to ensure inclusive, equitable, quality education for all globally. In this sense, in order to design interfaces and learning experiences in university environments that respect all quality specifications, it is necessary to evaluate the user experience of these environments automatically and accurately beforehand. Thus, the main objective of this thesis is to identify the most relevant specific characteristics in the user experience of university e-learning environments that allow specific and automatic analysis of the students' feelings in order to lay the foundations for the design of user-centered e-learning platforms. To this end, the study proposes to analyse the needs and feelings of online university students with digital, advanced, and efficient artificial intelligence methods. Therefore, this project investigates the application of machine learning models of sentiment analysis for the evaluation of user experience. These artificial intelligence techniques have been applied to the responses received from more than 2,000 university students surveyed from postgraduate online studies and massive open online courses (MOOCs). The results present the basis of a model that allows ontologically classifying categories or aspects of university online education and knowing the users' polarity of feeling about their e-learning experience in an automatic way. In this way, it has been possible to find out the students' opinions in an automated way with regard to key categories of digital teaching. In addition, student comments have been classified into several UX e-learning or UXEL dimensions. Also, it has been identified the polarity of sentiment for each dimension. To sum up, this work has generated four major contributions to the scientific community. Firstly, an adaptation of the validated questionnaire UEQ-S integrated and adapted to three e-learning platforms for specific postgraduate courses at the Universitat de València and at the Universidad Rey Juan Carlos; and for MOOCs at the Universitat Politècnica de València. Secondly, this thesis has generated an innovative application of sentiment analysis and machine learning methods through natural language processing for the evaluation of the user experience of university online students. Therefore, this method provides the analysis of learners opinions and classifies them according to their polarity in positive, negative or neutral. And thirdly, this scientific work brings out a proprietary ontology of aspects for the virtual learning experience associated with UX dimensions. This ontology used with sentiment analysis tools, allows classifying the polarity of student opinions (positive, neutral, negative) by key categories of e-learning (VLE, Teacher, Student, Sound, Image, Material, Exercise, Evaluation and Communication) and group the comments in three dimensions UX e-learning or UXEL (VLE, Social Connections, and Learning Resources and Tools). Finally, these contributions will help to evaluate in an automatic and accurate way several university e-learning environments in order to design user-centered virtual learning experiences more personalised and inclusive for all which suit quality standards and meet UN SDG 4 for 2030. / Sanchis Font, R. (2023). User eXperience evaluation on university virtual learning through sentiment analysis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/194059 / Compendio

Page generated in 0.0551 seconds