Spelling suggestions: "subject:"lenguaje"" "subject:"lengua""
391 |
Design and Implementation of a Model-Driven Software Production Method: from Strategy to CodeNoel López, René Alejandro 15 April 2024 (has links)
[ES] Cada día surgen nuevas tecnologías que cambian el mundo tal y como lo conocemos: cómo aprendemos, trabajamos y nos relacionamos. Este escenario lleva a las organizaciones a adaptar rápidamente no sólo sus productos y servicios, sino también su estructura y estrategias para sobrevivir y prosperar. Como se ha estudiado ampliamente, alinear la tecnología de la información con objetivos de alto nivel es clave para que una organización se adapte rápidamente a su entorno. Los métodos de desarrollo dirigidos por modelos (MDD) han contribuido a ello al incluir los objetivos de negocio en el proceso de desarrollo de software, proporcionando trazabilidad, calidad y eficiencia mediante transformaciones de modelo a modelo. Sin embargo, los métodos MDD existentes no han incluido la estrategia y la estructura de la organización en el proceso de desarrollo. Esta tesis integra la información organizacional en un método MDD existente compuesto por OO-Method, un método MDD orientado a objetos, y Análisis de Comunicaciones, un método de modelado de procesos de negocio orientado a la comunicación. A ellos, se integran las principales contribuciones de esta tesis: LiteStrat, un método de modelado organizacional, y Stra2Bis, un método para diseñar procesos de negocio alineados estratégicamente. LiteStrat permite modelar las influencias externas que demandan el desarrollo de nuevo software, y la estrategia y la estructura organizacional para abordar dicha influencia. Stra2Bis integra LiteStrat y Análisis de Comunicaciones a través de tres reglas de transformación, generando una estructura de procesos de negocio alineada con la organización. Hemos realizado validaciones experimentales de las mejoras de completitud y precisión de los modelos producidos por los métodos, y de la eficacia y satisfacción de sus usuarios. El trabajo futuro se centra en la aplicación de los métodos en la industria y en su evolución continua. / [CA] Cada dia sorgixen noves tecnologies que canvien el món tal com el coneixem: com aprenem, treballem i ens relacionem. Aquest escenari porta a les organitzacions a adaptar ràpidament no sols els seus productes i servicis, sinó també la seua estructura i estratègies per a sobreviure i prosperar. Com s'ha estudiat àmpliament, alinear la tecnologia de la informació amb objectius d'alt nivell és clau perquè una organització s'adapte ràpidament al seu entorn. Els mètodes de desenvolupament dirigits per models (MDD) hi han contribuït en incloure els objectius de negoci en el procés de desenvolupament de programari, proporcionant traçabilitat, qualitat i eficiència mitjançant transformacions de model a model. No obstant, els mètodes MDD existents no han inclòs l'estratègia i l'estructura de l'organització en el procés de desenvolupament. Aquesta tesi integra la informació organitzacional en un mètode MDD existent compost per OO-Method, un mètode MDD orientat a objectes, i Anàlisis de Comunicacions, un mètode de modelatge de processos de negoci orientat a la comunicació. A ells, s'integren les principals contribucions d'aquesta tesi: LiteStrat, un mètode de modelatge organitzacional, i Stra2Bis, un mètode per a dissenyar processos de negoci alineats estratègicament. LiteStrat permet modelar les influències externes que demanden el desenvolupament de nou programari, i l'estratègia i l'estructura organitzacional per a abordar aquesta influència. Stra2Bis integra LiteStrat i Anàlisi de Comunicacions a través de tres regles de transformació, generant una estructura de processos de negoci alineada amb l'organització. Hem realitzat validacions experimentals de les millores de completesa i precisió dels models produïts pels mètodes, i de l'eficàcia i satisfacció dels seus usuaris. El treball futur se centra en l'aplicació dels mètodes en la indústria i en la seua evolució contínua. / [EN] New, disruptive technologies emerge daily, changing the world as we know it: how we learn, work, and socially interact. This ever-changing scenario pushes organisations to quickly adapt not only their products and services but also their structure and strategies to survive and thrive. As has been widely studied, aligning information technology to high-level goals is key for an organisation to adapt quickly to its environment. Model-driven development (MDD) methods have contributed to this by systematically including business goals in the software development process, providing traceability, quality and efficiency through model-to-model transformations. Yet, existing MDD methods have not included organisational strategy and structure in the development process. This thesis integrates organisational information into a baseline MDD method composed of the OO-Method, an object-oriented model-driven development method, and Communication Analysis, a communication-oriented business process modelling method. The baseline MDD method is extended by the main contributions of this thesis: LiteStrat, an organisational modelling method, and Stra2Bis, a method for designing strategically aligned business processes. LiteStrat supports modelling the external influences that drive new software development endeavours and the strategy and organisational structure to address such influence. Stra2Bis integrates LiteStrat and Communication Analysis through three model-to-model transformation guidelines, generating the scaffold of business processes aligned with the organisation's structure and strategy. Sound experimental validations were performed to assess the methods' improvements in completeness and accuracy and their effect on the method users' efficiency and satisfaction. Further work regards implementing the methods into industrial contexts and their continuous evolution. / Project Participation: SREC: Desarrollo ágil de sistemas desde requisitos a código (SREC). PID2021-123824OB-I00: Agencia Estatal de Investigacion, España. 2022-2025. DELFOS: Sistema de información para la gestión de variaciones genómicas. PDC2021-121243-I00 - Agencia Estatal de Investigacion, España. 2021-2023. OGMIOS: Sistema inteligente de apoyo a la toma de decisiones clínicas en medicina de precisión. INNEST/2021/57 - Agencia Estatal de Investigacion, España. 2021-2023. / Noel López, RA. (2024). Design and Implementation of a Model-Driven Software Production Method: from Strategy to Code [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203527
|
392 |
Towards Search-based Game Software EngineeringBlasco Latorre, Daniel 20 April 2024 (has links)
Tesis por compendio / [ES] Los videojuegos son proyectos multidisciplinares que implican, en buena medida, el desarrollo de software. Esta tesis trata la faceta del desarrollo de videojuegos relativa al software mediante la Ingeniería del Software basada en Búsqueda (SBSE, Search-based Software Engineering). El objetivo específico de este trabajo es valerse de las características de los videojuegos en pro de una Ingeniería del Software de Videojuegos basada en Búsqueda (SBGSE, Search-based Game Software Engineering), incluyendo el uso de simulaciones de videojuegos para guiar búsquedas, codificación de granularidad fina y operaciones genéticas de mejora.
Las aproximaciones propuestas superan a las de referencia en mantenimiento (trazabilidad de requisitos) y creación de contenido (generación de NPCs). El mantenimiento y la creación de contenido son, a menudo, tareas esenciales para garantizar la retención de usuarios por medio de actualizaciones o expansiones. Además, esta investigación aborda la necesidad de estudios de caso industriales.
Esta tesis presenta un compendio que incluye tres artículos realizados durante el proceso de investigación y publicados en revistas académicas, con resultados que muestran que las aproximaciones de la Ingeniería del Software de Videojuegos basada en Búsqueda (SBGSE, Search-based Game Software Engineering) pueden mejorar la calidad de las soluciones generadas, así como reducir el tiempo necesario para producirlas. / [CA] Els videojocs són projectes multidisciplinaris que impliquen, en bona part, el desenvolupament de software. Aquesta tesi tracta la faceta del desenvolupament de videojocs relativa al software mitjançant l'Enginyeria del Software basada en Cerca (SBSE, Search-based Software Engineering). L'objectiu específic d'aquest treball és valdre's de les característiques dels videojocs en pro d'una Enginyeria del Software de Videojocs basada en Cerca (SBGSE, Search-based Game Software Engineering), incloent-hi l'ús de simulacions de videojocs per a guiar cerques, codificació de granularitat fina i operacions genètiques de millora.
Les aproximacions proposades superen a les de referència en manteniment (traçabilitat de requisits) i creació de contingut (generació de NPCs). El manteniment i la creació de contingut són, sovint, tasques essencials per a garantir la retenció d'usuaris per mitjà d'actualitzacions o expansions. A més, aquesta investigació aborda la necessitat d'estudis de cas industrials.
Aquesta tesi presenta un compendi que inclou tres articles realitzats durant el procés d'investigació i publicats en revistes acadèmiques, amb resultats que mostren que les aproximacions de l'Enginyeria del Software de Videojocs basada en Cerca (SBGSE, Search-based Game Software Engineering) poden millorar la qualitat de les solucions generades, així com reduir el temps necessari per a produir-les. / [EN] Video games are multidisciplinary projects which involve software development to a significant extent. This thesis tackles the software aspect of video game development through Search-based Engineering. Specifically, the objective of this work is to leverage the characteristics of video games towards Search-based Game Software Engineering, including the use of video game simulations to guide the search, a fine-grained encoding, and improvement genetic operations.
The approaches proposed outperform the baselines in maintenance (requirement traceability) and content creation (NPC generation) tasks. Maintenance and content creation are often essential tasks to ensure player retention by means of updates or expansions. In addition, this research addresses the need for industrial case studies.
This thesis presents a compendium that includes three papers produced through the research and published in academic journals, with results that show that Search-based Game Software Engineering approaches can provide improved solutions, in terms of quality and time cost. / This work has been partially supported by the Ministry of Economy and Competitiveness (MINECO) through the Spanish National R+D+i Plan and ERDF funds under the Project ALPS (RTI2018-096411-B-I00). / Blasco Latorre, D. (2024). Towards Search-based Game Software Engineering [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203655 / Compendio
|
393 |
Análisis de modelos de objetivos basado en valor mediante lógica difusa y toma de decisiones multicriterioCano Genovés, Carlos 02 September 2024 (has links)
[ES] La ingeniería de requisitos es fundamental para el desarrollo de software ya que se encarga de obtener, analizar, especificar, validar y gestionar los requisitos del software. La definición incorrecta de los requisitos puede causar retrasos y sobrecostes. Además, es importante identificar los requisitos más relevantes y cuáles deberían implementarse primero considerando las limitaciones de recursos y teniendo cuenta distintos puntos de vista.
Los modelos de objetivos destacan para obtener y modelar requisitos de alto nivel ya que se centran en los objetivos de los stakeholders y las relaciones entre ellos. Estos modelos ayudan a identificar los requisitos ya que capturan las motivaciones e intenciones de los stakeholders con respecto al software. Si bien existen diversas técnicas de análisis de modelos de objetivos, la mayoría se centran en la satisfacibilidad, identificando la compatibilidad entre objetivos gestionando así un problema importante de la ingeniería de requisitos.
Las técnicas de modelos de objetivos adoptan un enfoque neutral con respecto al valor, considerando todos los objetivos igual de importantes. Si bien existen técnicas que utilizan la priorización de importancia junto con satisfacción, el enfoque principal es la satisfacción, haciendo que la importancia para los stakeholders quede relegado a un segundo plano. En consecuencia, los resultados pueden ayudar con la compatibilidad de los requisitos, pero no a identificar los más relevantes.
El objetivo de esta tesis doctoral es definir y evaluar una técnica de análisis de modelos de objetivos que priorice los objetivos de un modelo de objetivos en función del valor que aportan según las preferencias de los stakeholders y las relaciones entre los objetivos, permitiendo identificar qué objetivos aportan más valor a los stakeholders. Esta técnica no pretende sustituir a las ya existentes sino complementarlas ya que no identifica la compatibilidad entre los objetivos sino cuáles proporcionan más valor.
La técnica propuesta (VeGAn) hace uso de la lógica difusa para tratar la incertidumbre en la asignación de importancia relativa y de una técnica de toma de decisiones multicriterio ampliamente utilizada en la industria (TOPSIS) para calcular el valor, la cual se ve enriquecida por una técnica de propagación sistemática que provee información adicional sobre la interacción entre los objetivos en base a las relaciones del modelo de objetivos.
Además, se ha desarrollado una herramienta que da soporte tecnológico a VeGAn automatizando la técnica y proporcionado una serie de funciones: i) importar modelos de objetivos de otras herramientas; ii) realizar validaciones sobre los datos introducidos; iii) ordenar los resultados según varios; y iv) almacenar información sobre distintos análisis de un modelo de objetivos para realizar comparaciones del valor obtenido.
VeGAn se evaluó mediante un estudio de caso y una familia de experimentos. El estudio de caso verificó la aplicabilidad sistemática y consistente de la técnica, obteniendo retroalimentación para mejoras. La familia de experimentos involucró a 172 sujetos, estudiantes de ingeniería en informática y másteres en ingeniería del software donde se analizó la precisión de la priorización, tiempo de priorización, satisfacción percibida, facilidad de uso percibida, utilidad percibida e intención de uso percibida de los participantes aplicando VeGAn en oposición a GRL-Quant. El análisis estadístico indicó que ambas técnicas son similares salvo para la satisfacción percibida a favor de VeGAn.
Esta tesis doctoral contribuye al ámbito de la ingeniería de requisitos y en especial a la elicitación temprana de requisitos mediante el uso de modelos de objetivos proporcionando una técnica de análisis que complementa a las ya existentes ayudando a priorizar aquellos objetivos que proporcionan más valor teniendo en cuenta el punto de vista de diversos stakeholders. / [CA] L'enginyeria de requisits és fonamental per al desenvolupament de programari ja que s'encarrega d'obtindre, analitzar, especificar, validar i gestionar els requisits del programari. La definició incorrecta dels requisits pot causar retards i sobrecostos. A més, és important identificar els requisits més rellevants i quins haurien d'implementar-se primer considerant les limitacions de recursos i tenint compte diferents punts de vista.
Els models d'objectius destaquen per a obtindre i modelar requisits d'alt nivell ja que se centren en els objectius dels stakeholders i les relacions entre ells. Estos models ajuden a identificar els requisits ja que capturen les motivacions i intencions dels stakeholders respecte al programari. Si bé existixen diverses tècniques d'anàlisis de models d'objectius, la majoria se centren en la satisfacibilitat, identificant la compatibilitat entre objectius gestionant així un problema important de l'enginyeria de requisits.
Les tècniques de models d'objectius adopten un enfocament neutral respecte al valor, considerant tots els objectius igual d'importants. Si bé existixen tècniques que utilitzen la priorització d'importància juntament amb satisfacció, l'enfocament principal és la satisfacció, fent que la importància per als stakeholders quede relegat a un segon pla. En conseqüència, els resultats poden ajudar amb la compatibilitat dels requisits, però no a identificar els més rellevants.
L'objectiu d'esta tesi doctoral és definir i avaluar una tècnica d'anàlisi de models d'objectius que prioritze els objectius d'un model d'objectius en funció del valor que aporten segons les preferències dels stakeholders i les relacions entre els objectius, permetent identificar quins objectius aporten més valor als stakeholders. Esta tècnica no pretén substituir a les ja existents sinó complementar-les ja que no identifica la compatibilitat entre els objectius sinó quins proporcionen més valor.
La tècnica proposada (VeGAn) fa ús de la lògica difusa per a tractar la incertesa en l'assignació d'importància relativa i d'una tècnica de presa de decisions multicriteri àmpliament utilitzada en la indústria (TOPSIS) per a calcular el valor, la qual es veu enriquida per una tècnica de propagació sistemàtica que proveïx informació addicional sobre la interacció entre els objectius sobre la base de les relacions del model d'objectius.
A més, s'ha desenvolupat una ferramenta que dona suport tecnològic a VeGAn automatitzant la tècnica i proporcionat una sèrie de funcions: i) importar models d'objectius d'altres ferramentes; ii) realitzar validacions sobre les dades introduïdes; iii) ordenar els resultats segons varis; i iv) emmagatzemar informació sobre diferents anàlisis d'un model d'objectius per a realitzar comparacions del valor obtingut.
VeGAn es va avaluar mitjançant un estudi de cas i una família d'experiments. L'estudi de cas va verificar l'aplicabilitat sistemàtica i consistent de la tècnica, obtenint retroalimentació per a millores. La família d'experiments va involucrar a 172 subjectes, estudiants d'enginyeria en informàtica i màsters en enginyeria del programari on es va analitzar la precisió de la priorització, temps de priorització, satisfacció percebuda, facilitat d'ús percebuda, utilitat percebuda i intenció d'ús percebuda dels participants aplicant VeGAn en oposició a GRL-Quant. L'anàlisi estadística va indicar que totes dues tècniques són similars excepte per a la satisfacció percebuda a favor de VeGAn.
Esta tesi doctoral contribuïx a l'àmbit de l'enginyeria de requisits i especialment a la elicitació primerenca de requisits mitjançant l'ús de models d'objectius proporcionant una tècnica d'anàlisi que complementa a les ja existents ajudant a prioritzar aquells objectius que proporcionen més valor tenint en compte el punt de vista de diversos stakeholders. / [EN] Requirements engineering is fundamental to software development as it is responsible for eliciting, analysing, specifying, validating and managing software requirements. Incorrect definition of requirements can cause delays and cost overruns. Furthermore, it is important to identify the most relevant requirements and which ones should be implemented first considering resource constraints and taking into account different points of view.
Goal models stand out at eliciting and modelling high-level requirements as they focus on stakeholder goals and the relationships between them. These models help identify requirements by capturing the motivations and intentions of stakeholders with respect to the software. Although there are a variety of goal-oriented analysis techniques, most focus on satisfiability, identifying compatibility between goals and thus managing an important requirements engineering problem.
Goal-oriented analysis techniques adopt a value-neutral approach, considering all goals equally important. While there are techniques that use prioritisation of importance along with satisfaction, the main focus is on satisfaction, pushing importance to stakeholders into the background. As a result, the results may help with the compatibility of requirements, but not in identifying the most relevant ones.
The objective of this PhD thesis is to define and evaluate a goal-oriented analysis technique that prioritises the goals of a goal model according to the value they provide according to the preferences of stakeholders and the relationships between the goals, making it possible to identify which goals provide the most value to stakeholders. This technique is not intended to replace existing techniques but to complement them, as it does not identify compatibility between goals but rather which ones provide the most value.
The proposed technique (VeGAn) makes use of fuzzy logic to deal with uncertainty in assigning relative importance and a widely used multi-criteria decision-making technique in industry (TOPSIS) to calculate value, which is enriched by a systematic propagation technique that provides additional information on the interaction between goals based on the relationships of the goal model.
In addition, a tool has been developed to provide technological support to VeGAn by automating the technique and providing a series of functions: i) importing goal models from other tools; ii) performing validations on the data entered; iii) sorting the results according to several; and iv) storing information on different analyses of a goal model in order to make comparisons of the value obtained.
VeGAn was evaluated through a case study and a family of experiments. The case study verified the systematic and consistent applicability of the technique, obtaining feedback for improvements. The family of experiments involved 172 subjects, undergraduate students in computer engineering and masters in software engineering. The aim of the family was to analyse the participants' prioritisation accuracy, prioritisation time, perceived satisfaction, perceived ease of use, perceived usefulness, and perceived intention to use by applying VeGAn as opposed to GRL-Quant, a widely used goal modelling analysis method. Statistical analysis indicated that both techniques are similar except for perceived satisfaction in favour of VeGAn.
This PhD thesis contributes to the field of requirements engineering and in particular to the early elicitation of requirements through the use of goal models by providing a goal-oriented analysis technique that complements the existing ones by helping to prioritise those goals that provide the most value taking into account the point of view of various stakeholders. / Cano Genovés, C. (2024). Análisis de modelos de objetivos basado en valor mediante lógica difusa y toma de decisiones multicriterio [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/207550
|
394 |
Different Contributions to Cost-Effective Transcription and Translation of Video LecturesSilvestre Cerdà, Joan Albert 05 April 2016 (has links)
[EN] In recent years, on-line multimedia repositories have experiencied a strong
growth that have made them consolidated as essential knowledge assets, especially
in the area of education, where large repositories of video lectures have been
built in order to complement or even replace traditional teaching methods.
However, most of these video lectures are neither transcribed nor translated
due to a lack of cost-effective solutions to do so in a way that gives accurate
enough results. Solutions of this kind are clearly necessary in order to make
these lectures accessible to speakers of different languages and to people with
hearing disabilities. They would also facilitate lecture searchability and
analysis functions, such as classification, recommendation or plagiarism
detection, as well as the development of advanced educational functionalities
like content summarisation to assist student note-taking.
For this reason, the main aim of this thesis is to develop a cost-effective
solution capable of transcribing and translating video lectures to a reasonable
degree of accuracy. More specifically, we address the integration of
state-of-the-art techniques in Automatic Speech Recognition and Machine
Translation into large video lecture repositories to generate high-quality
multilingual video subtitles without human intervention and at a reduced
computational cost. Also, we explore the potential benefits of the exploitation
of the information that we know a priori about these repositories, that is,
lecture-specific knowledge such as speaker, topic or slides, to create
specialised, in-domain transcription and translation systems by means of
massive adaptation techniques.
The proposed solutions have been tested in real-life scenarios by carrying out
several objective and subjective evaluations, obtaining very positive results.
The main outcome derived from this thesis, The transLectures-UPV
Platform, has been publicly released as an open-source software, and, at the
time of writing, it is serving automatic transcriptions and translations for
several thousands of video lectures in many Spanish and European
universities and institutions. / [ES] Durante estos últimos años, los repositorios multimedia on-line han experimentado un gran
crecimiento que les ha hecho establecerse como fuentes fundamentales de conocimiento,
especialmente en el área de la educación, donde se han creado grandes repositorios de vídeo
charlas educativas para complementar e incluso reemplazar los métodos de enseñanza tradicionales.
No obstante, la mayoría de estas charlas no están transcritas ni traducidas debido a
la ausencia de soluciones de bajo coste que sean capaces de hacerlo garantizando una calidad
mínima aceptable. Soluciones de este tipo son claramente necesarias para hacer que las vídeo
charlas sean más accesibles para hablantes de otras lenguas o para personas con discapacidades auditivas.
Además, dichas soluciones podrían facilitar la aplicación de funciones de
búsqueda y de análisis tales como clasificación, recomendación o detección de plagios, así
como el desarrollo de funcionalidades educativas avanzadas, como por ejemplo la generación
de resúmenes automáticos de contenidos para ayudar al estudiante a tomar apuntes.
Por este motivo, el principal objetivo de esta tesis es desarrollar una solución de bajo
coste capaz de transcribir y traducir vídeo charlas con un nivel de calidad razonable. Más
específicamente, abordamos la integración de técnicas estado del arte de Reconocimiento del
Habla Automático y Traducción Automática en grandes repositorios de vídeo charlas educativas
para la generación de subtítulos multilingües de alta calidad sin requerir intervención
humana y con un reducido coste computacional. Además, también exploramos los beneficios
potenciales que conllevaría la explotación de la información de la que disponemos a priori
sobre estos repositorios, es decir, conocimientos específicos sobre las charlas tales como el
locutor, la temática o las transparencias, para crear sistemas de transcripción y traducción
especializados mediante técnicas de adaptación masiva.
Las soluciones propuestas en esta tesis han sido testeadas en escenarios reales llevando
a cabo nombrosas evaluaciones objetivas y subjetivas, obteniendo muy buenos resultados.
El principal legado de esta tesis, The transLectures-UPV Platform, ha sido liberado públicamente
como software de código abierto, y, en el momento de escribir estas líneas, está
sirviendo transcripciones y traducciones automáticas para diversos miles de vídeo charlas
educativas en nombrosas universidades e instituciones Españolas y Europeas. / [CA] Durant aquests darrers anys, els repositoris multimèdia on-line han experimentat un gran
creixement que els ha fet consolidar-se com a fonts fonamentals de coneixement, especialment
a l'àrea de l'educació, on s'han creat grans repositoris de vídeo xarrades educatives per
tal de complementar o inclús reemplaçar els mètodes d'ensenyament tradicionals. No obstant
això, la majoria d'aquestes xarrades no estan transcrites ni traduïdes degut a l'absència de
solucions de baix cost capaces de fer-ho garantint una qualitat mínima acceptable. Solucions
d'aquest tipus són clarament necessàries per a fer que les vídeo xarres siguen més accessibles
per a parlants d'altres llengües o per a persones amb discapacitats auditives. A més, aquestes
solucions podrien facilitar l'aplicació de funcions de cerca i d'anàlisi tals com classificació,
recomanació o detecció de plagis, així com el desenvolupament de funcionalitats educatives
avançades, com per exemple la generació de resums automàtics de continguts per ajudar a
l'estudiant a prendre anotacions.
Per aquest motiu, el principal objectiu d'aquesta tesi és desenvolupar una solució de baix
cost capaç de transcriure i traduir vídeo xarrades amb un nivell de qualitat raonable. Més
específicament, abordem la integració de tècniques estat de l'art de Reconeixement de la
Parla Automàtic i Traducció Automàtica en grans repositoris de vídeo xarrades educatives
per a la generació de subtítols multilingües d'alta qualitat sense requerir intervenció humana
i amb un reduït cost computacional. A més, també explorem els beneficis potencials que
comportaria l'explotació de la informació de la que disposem a priori sobre aquests repositoris,
és a dir, coneixements específics sobre les xarrades tals com el locutor, la temàtica o
les transparències, per a crear sistemes de transcripció i traducció especialitzats mitjançant
tècniques d'adaptació massiva.
Les solucions proposades en aquesta tesi han estat testejades en escenaris reals duent a
terme nombroses avaluacions objectives i subjectives, obtenint molt bons resultats. El principal
llegat d'aquesta tesi, The transLectures-UPV Platform, ha sigut alliberat públicament
com a programari de codi obert, i, en el moment d'escriure aquestes línies, està servint transcripcions
i traduccions automàtiques per a diversos milers de vídeo xarrades educatives en
nombroses universitats i institucions Espanyoles i Europees. / Silvestre Cerdà, JA. (2016). Different Contributions to Cost-Effective Transcription and Translation of Video Lectures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62194
|
395 |
Contributions to the joint segmentation and classification of sequences (My two cents on decoding and handwriting recognition)España Boquera, Salvador 05 April 2016 (has links)
[EN] This work is focused on problems (like automatic speech recognition (ASR) and handwritten text recognition (HTR)) that: 1) can be represented (at least approximately) in terms of one-dimensional sequences, and 2) solving these problems entails breaking the observed sequence down into segments which are associated to units taken from a finite repertoire. The required segmentation and classification tasks are so intrinsically interrelated ("Sayre's Paradox") that they have to be performed jointly.
We have been inspired by what some works call the "successful trilogy", which refers to the synergistic improvements obtained when considering:
- a good formalization framework and powerful algorithms;
- a clever design and implementation taking the best profit of hardware;
- an adequate preprocessing and a careful tuning of all heuristics.
We describe and study "two stage generative models" (TSGMs) comprising two stacked probabilistic generative stages without reordering. This model not only includes Hidden Markov Models (HMMs, but also "segmental models" (SMs).
"Two stage decoders" may be deduced by simply running a TSGM in reversed way, introducing non determinism when required: 1) A directed acyclic graph (DAG) is generated and 2) it is used together with a language model (LM). One-pass decoders constitute a particular case.
A formalization of parsing and decoding in terms of semiring values and language equations proposes the use of recurrent transition networks (RTNs) as a normal form for Context Free Grammars (CFGs), using them in a parsing-as-composition paradigm, so that parsing CFGs result in a slight extension of regular ones. Novel transducer composition algorithms have been proposed that can work with RTNs and can deal with null transitions without resorting to filter-composition even in the presence of null transitions and non-idempotent semirings.
A review of LMs is described and some contributions mainly focused on LM interfaces, LM representation and on the evaluation of Neural Network LMs (NNLMs) are provided.
A review of SMs includes the combination of generative and discriminative segmental models and general scheme of frame emission and another one of SMs.
Some fast cache-friendly specialized Viterbi lexicon decoders taking profit of particular HMM topologies are proposed. They are able to manage sets of active states without requiring dictionary look-ups (e.g. hashing).
A dataflow architecture allowing the design of flexible and diverse recognition systems from a little repertoire of components has been proposed, including a novel DAG serialization protocol.
DAG generators can take over-segmentation constraints into account, make use SMs other than HMMs, take profit of the specialized decoders proposed in this work and use a transducer model to control its behavior making it possible, for instance, to use context dependent units.
Relating DAG decoders, they take profit of a general LM interface that can be extended to deal with RTNs.
Some improvements for one pass decoders are proposed by combining the specialized lexicon decoders and the "bunch" extension of the LM interface, including an adequate parallelization.
The experimental part is mainly focused on HTR tasks on different input modalities (offline, bimodal). We have proposed some novel preprocessing techniques for offline HTR which replace classical geometrical heuristics and make use of automatic learning techniques (neural networks). Experiments conducted on the IAM database using this new preprocessing and HMM hybridized with Multilayer Perceptrons (MLPs) have obtained some of the best results reported for this reference database. Among other HTR experiments described in this work, we have used over-segmentation information, tried lexicon free approaches, performed bimodal experiments and experimented with the combination of hybrid HMMs with holistic classifiers. / [ES] Este trabajo se centra en problemas (como reconocimiento automático del habla (ASR) o de escritura manuscrita (HTR))
que cumplen: 1) pueden representarse (quizás aproximadamente) en términos de secuencias unidimensionales, 2) su resolución implica descomponer la secuencia en segmentos que se pueden clasificar en un conjunto finito de unidades. Las tareas de segmentación y de clasificación necesarias están tan intrínsecamente interrelacionadas ("paradoja de Sayre") que deben realizarse conjuntamente.
Nos hemos inspirado en lo que algunos autores denominan "La trilogía exitosa", refereido a la sinergia obtenida cuando se tiene:
- un buen formalismo, que dé lugar a buenos algoritmos;
- un diseño e implementación ingeniosos y eficientes, que saquen provecho de las características del hardware;
- no descuidar el "saber hacer" de la tarea, un buen preproceso y el ajuste adecuado de los diversos parámetros.
Describimos y estudiamos "modelos generativos en dos etapas" sin reordenamientos (TSGMs), que incluyen no sólo los modelos ocultos de Markov (HMM), sino también modelos segmentales (SMs).
Se puede obtener un decodificador de "dos pasos" considerando a la inversa un TSGM introduciendo no determinismo: 1) se genera un grafo acíclico dirigido (DAG) y 2) se utiliza conjuntamente con un modelo de lenguaje (LM). El decodificador de "un paso" es un caso particular.
Se formaliza el proceso de decodificación con ecuaciones de lenguajes y semianillos, se propone el uso de redes de transición recurrente (RTNs) como forma normal de gramáticas de contexto libre (CFGs) y se utiliza el paradigma de análisis por composición de manera que el análisis de CFGs resulta una extensión del análisis de FSA. Se proponen algoritmos de composición de transductores que permite el uso de RTNs y que no necesita recurrir a composición de filtros incluso en presencia de transiciones nulas y semianillos no idempotentes.
Se propone una extensa revisión de LMs y algunas contribuciones relacionadas con su interfaz, con su representación y con la evaluación de LMs basados en redes neuronales (NNLMs).
Se ha realizado una revisión de SMs que incluye SMs basados en combinación de modelos generativos y discriminativos, así como un esquema general de tipos de emisión de tramas y de SMs.
Se proponen versiones especializadas del algoritmo de Viterbi para modelos de léxico y que manipulan estados activos sin recurrir a estructuras de tipo diccionario, sacando provecho de la caché.
Se ha propuesto una arquitectura "dataflow" para obtener reconocedores a partir de un pequeño conjunto de piezas básicas con un protocolo de serialización de DAGs.
Describimos generadores de DAGs que pueden tener en cuenta restricciones sobre la segmentación, utilizar modelos segmentales no limitados a HMMs, hacer uso de los decodificadores especializados propuestos en este trabajo y utilizar un transductor de control que permite el uso de unidades dependientes del contexto.
Los decodificadores de DAGs hacen uso de un interfaz bastante general de LMs que ha sido extendido para permitir el uso de RTNs.
Se proponen también mejoras para reconocedores "un paso" basados en algoritmos especializados para léxicos y en la interfaz de LMs en modo "bunch", así como su paralelización.
La parte experimental está centrada en HTR en diversas modalidades de adquisición (offline, bimodal). Hemos propuesto técnicas novedosas para el preproceso de escritura que evita el uso de heurísticos geométricos. En su lugar, utiliza redes neuronales. Se ha probado con HMMs hibridados con redes neuronales consiguiendo, para la base de datos IAM, algunos de los mejores resultados publicados. También podemos mencionar el uso de información de sobre-segmentación, aproximaciones sin restricción de un léxico, experimentos con datos bimodales o la combinación de HMMs híbridos con reconocedores de tipo holístico. / [CA] Aquest treball es centra en problemes (com el reconeiximent automàtic de la parla (ASR) o de l'escriptura manuscrita (HTR))
on: 1) les dades es poden representar (almenys aproximadament) mitjançant seqüències unidimensionals, 2) cal descompondre la seqüència en segments que poden pertanyer a un nombre finit de tipus. Sovint, ambdues tasques es relacionen de manera tan estreta que resulta impossible separar-les ("paradoxa de Sayre") i s'han de realitzar de manera conjunta.
Ens hem inspirat pel que alguns autors anomenen "trilogia exitosa", referit a la sinèrgia obtinguda quan prenim en compte:
- un bon formalisme, que done lloc a bons algorismes;
- un diseny i una implementació eficients, amb ingeni, que facen bon us de les particularitats del maquinari;
- no perdre de vista el "saber fer", emprar un preprocés adequat i fer bon us dels diversos paràmetres.
Descrivim i estudiem "models generatiu amb dues etapes" sense reordenaments (TSGMs), que inclouen no sols inclouen els models ocults de Markov (HMM), sinò també models segmentals (SM).
Es pot obtindre un decodificador "en dues etapes" considerant a l'inrevés un TSGM introduint no determinisme: 1) es genera un graf acíclic dirigit (DAG) que 2) és emprat conjuntament amb un model de llenguatge (LM). El decodificador "d'un pas" en és un cas particular.
Descrivim i formalitzem del procés de decodificació basada en equacions de llenguatges i en semianells. Proposem emprar xarxes de transició recurrent (RTNs) com forma normal de gramàtiques incontextuals (CFGs) i s'empra el paradigma d'anàlisi sintàctic mitjançant composició de manera que l'anàlisi de CFGs resulta una lleugera extensió de l'anàlisi de FSA. Es proposen algorismes de composició de transductors que poden emprar RTNs i que no necessiten recorrer a la composició amb filtres fins i tot amb transicions nul.les i semianells no idempotents.
Es proposa una extensa revisió de LMs i algunes contribucions relacionades amb la seva interfície, amb la seva representació i amb l'avaluació de LMs basats en xarxes neuronals (NNLMs).
S'ha realitzat una revisió de SMs que inclou SMs basats en la combinació de models generatius i discriminatius, així com un esquema general de tipus d'emissió de trames i altre de SMs.
Es proposen versions especialitzades de l'algorisme de Viterbi per a models de lèxic que permeten emprar estats actius sense haver de recórrer a estructures de dades de tipus diccionari, i que trauen profit de la caché.
S'ha proposat una arquitectura de flux de dades o "dataflow" per obtindre diversos reconeixedors a partir d'un xicotet conjunt de peces amb un protocol de serialització de DAGs.
Descrivim generadors de DAGs capaços de tindre en compte restriccions sobre la segmentació, emprar models segmentals no limitats a HMMs, fer us dels decodificadors especialitzats proposats en aquest treball i emprar un transductor de control que permet emprar unitats dependents del contexte.
Els decodificadors de DAGs fan us d'una interfície de LMs prou general que ha segut extesa per permetre l'ús de RTNs.
Es proposen millores per a reconeixedors de tipus "un pas" basats en els algorismes especialitzats per a lèxics i en la interfície de LMs en mode "bunch", així com la seua paral.lelització.
La part experimental està centrada en el reconeiximent d'escriptura en diverses modalitats d'adquisició (offline, bimodal). Proposem un preprocés d'escriptura manuscrita evitant l'us d'heurístics geomètrics, en el seu lloc emprem xarxes neuronals. S'han emprat HMMs hibridats amb xarxes neuronals aconseguint, per a la base de dades IAM, alguns dels millors resultats publicats. També podem mencionar l'ús d'informació de sobre-segmentació, aproximacions sense restricció a un lèxic, experiments amb dades bimodals o la combinació de HMMs híbrids amb classificadors holístics. / España Boquera, S. (2016). Contributions to the joint segmentation and classification of sequences (My two cents on decoding and handwriting recognition) [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62215 / Premios Extraordinarios de tesis doctorales
|
396 |
Transformer Models for Machine Translation and Streaming Automatic Speech RecognitionBaquero Arnal, Pau 29 May 2023 (has links)
[ES] El procesamiento del lenguaje natural (NLP) es un conjunto de problemas
computacionales con aplicaciones de máxima relevancia, que junto con otras
tecnologías informáticas se ha beneficiado de la revolución que ha significado
el aprendizaje profundo. Esta tesis se centra en dos problemas fundamentales
para el NLP: la traducción automática (MT) y el reconocimiento automático
del habla o transcripción automática (ASR); así como en una arquitectura
neuronal profunda, el Transformer, que pondremos en práctica para mejorar
las soluciones de MT y ASR en algunas de sus aplicaciones.
El ASR y MT pueden servir para obtener textos multilingües de alta calidad a
un coste razonable para una diversidad de contenidos audiovisuales. Concre-
tamente, esta tesis aborda problemas como el de traducción de noticias o el de
subtitulación automática de televisión. El ASR y MT también se pueden com-
binar entre sí, generando automáticamente subtítulos traducidos, o con otras
soluciones de NLP: resumen de textos para producir resúmenes de discursos, o
síntesis del habla para crear doblajes automáticos. Estas aplicaciones quedan
fuera del alcance de esta tesis pero pueden aprovechar las contribuciones que
contiene, en la meduda que ayudan a mejorar el rendimiento de los sistemas
automáticos de los que dependen.
Esta tesis contiene una aplicación de la arquitectura Transformer al MT tal y
como fue concebida, mediante la que obtenemos resultados de primer nivel en
traducción de lenguas semejantes. En capítulos subsecuentes, esta tesis aborda
la adaptación del Transformer como modelo de lenguaje para sistemas híbri-
dos de ASR en vivo. Posteriormente, describe la aplicación de este tipus de
sistemas al caso de uso de subtitulación de televisión, participando en una com-
petición pública de RTVE donde obtenemos la primera posición con un marge
importante. También demostramos que la mejora se debe principalmenta a la
tecnología desarrollada y no tanto a la parte de los datos. / [CA] El processament del llenguage natural (NLP) és un conjunt de problemes com-
putacionals amb aplicacions de màxima rellevància, que juntament amb al-
tres tecnologies informàtiques s'ha beneficiat de la revolució que ha significat
l'impacte de l'aprenentatge profund. Aquesta tesi se centra en dos problemes
fonamentals per al NLP: la traducció automàtica (MT) i el reconeixement
automàtic de la parla o transcripció automàtica (ASR); així com en una ar-
quitectura neuronal profunda, el Transformer, que posarem en pràctica per a
millorar les solucions de MT i ASR en algunes de les seues aplicacions.
l'ASR i MT poden servir per obtindre textos multilingües d'alta qualitat a un
cost raonable per a un gran ventall de continguts audiovisuals. Concretament,
aquesta tesi aborda problemes com el de traducció de notícies o el de subtitu-
lació automàtica de televisió. l'ASR i MT també es poden combinar entre ells,
generant automàticament subtítols traduïts, o amb altres solucions de NLP:
amb resum de textos per produir resums de discursos, o amb síntesi de la parla
per crear doblatges automàtics. Aquestes altres aplicacions es troben fora de
l'abast d'aquesta tesi però poden aprofitar les contribucions que conté, en la
mesura que ajuden a millorar els resultats dels sistemes automàtics dels quals
depenen.
Aquesta tesi conté una aplicació de l'arquitectura Transformer al MT tal com
va ser concebuda, mitjançant la qual obtenim resultats de primer nivell en
traducció de llengües semblants. En capítols subseqüents, aquesta tesi aborda
l'adaptació del Transformer com a model de llenguatge per a sistemes híbrids
d'ASR en viu. Posteriorment, descriu l'aplicació d'aquest tipus de sistemes al
cas d'ús de subtitulació de continguts televisius, participant en una competició
pública de RTVE on obtenim la primera posició amb un marge significant.
També demostrem que la millora es deu principalment a la tecnologia desen-
volupada i no tant a la part de les dades / [EN] Natural language processing (NLP) is a set of fundamental computing prob-
lems with immense applicability, as language is the natural communication
vehicle for people. NLP, along with many other computer technologies, has
been revolutionized in recent years by the impact of deep learning. This thesis
is centered around two keystone problems for NLP: machine translation (MT)
and automatic speech recognition (ASR); and a common deep neural architec-
ture, the Transformer, that is leveraged to improve the technical solutions for
some MT and ASR applications.
ASR and MT can be utilized to produce cost-effective, high-quality multilin-
gual texts for a wide array of media. Particular applications pursued in this
thesis are that of news translation or that of automatic live captioning of tele-
vision broadcasts. ASR and MT can also be combined with each other, for
instance generating automatic translated subtitles from audio, or augmented
with other NLP solutions: text summarization to produce a summary of a
speech, or speech synthesis to create an automatic translated dubbing, for in-
stance. These other applications fall out of the scope of this thesis, but can
profit from the contributions that it contains, as they help to improve the
performance of the automatic systems on which they depend.
This thesis contains an application of the Transformer architecture to MT as it
was originally conceived, achieving state-of-the-art results in similar language
translation. In successive chapters, this thesis covers the adaptation of the
Transformer as a language model for streaming hybrid ASR systems. After-
wards, it describes how we applied the developed technology for a specific use
case in television captioning by participating in a competitive challenge and
achieving the first position by a large margin. We also show that the gains
came mostly from the improvement in technology capabilities over two years
including that of the Transformer language model adapted for streaming, and
the data component was minor. / Baquero Arnal, P. (2023). Transformer Models for Machine Translation and Streaming Automatic Speech Recognition [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193680
|
397 |
Computational Argumentation for the Automatic Analysis of Argumentative Discourse and Human PersuasionRuiz Dolz, Ramon 10 July 2023 (has links)
Tesis por compendio / [ES] La argumentación computacional es el área de investigación que estudia y analiza el uso de distintas técnicas y algoritmos que aproximan el razonamiento argumentativo humano desde un punto de vista computacional. En esta tesis doctoral se estudia el uso de distintas técnicas propuestas bajo el marco de la argumentación computacional para realizar un análisis automático del discurso argumentativo, y para desarrollar técnicas de persuasión computacional basadas en argumentos. Con estos objetivos, en primer lugar se presenta una completa revisión del estado del arte y se propone una clasificación de los trabajos existentes en el área de la argumentación computacional. Esta revisión nos permite contextualizar y entender la investigación previa de forma más clara desde la perspectiva humana del razonamiento argumentativo, así como identificar las principales limitaciones y futuras tendencias de la investigación realizada en argumentación computacional. En segundo lugar, con el objetivo de solucionar algunas de estas limitaciones, se ha creado y descrito un nuevo conjunto de datos que permite abordar nuevos retos y investigar problemas previamente inabordables (e.g., evaluación automática de debates orales). Conjuntamente con estos datos, se propone un nuevo sistema para la extracción automática de argumentos y se realiza el análisis comparativo de distintas técnicas para esta misma tarea. Además, se propone un nuevo algoritmo para la evaluación automática de debates argumentativos y se prueba con debates humanos reales. Finalmente, en tercer lugar se presentan una serie de estudios y propuestas para mejorar la capacidad persuasiva de sistemas de argumentación computacionales en la interacción con usuarios humanos. De esta forma, en esta tesis se presentan avances en cada una de las partes principales del proceso de argumentación computacional (i.e., extracción automática de argumentos, representación del conocimiento y razonamiento basados en argumentos, e interacción humano-computador basada en argumentos), así como se proponen algunos de los cimientos esenciales para el análisis automático completo de discursos argumentativos en lenguaje natural. / [CA] L'argumentació computacional és l'àrea de recerca que estudia i analitza l'ús de distintes tècniques i algoritmes que aproximen el raonament argumentatiu humà des d'un punt de vista computacional. En aquesta tesi doctoral s'estudia l'ús de distintes tècniques proposades sota el marc de l'argumentació computacional per a realitzar una anàlisi automàtic del discurs argumentatiu, i per a desenvolupar tècniques de persuasió computacional basades en arguments. Amb aquestos objectius, en primer lloc es presenta una completa revisió de l'estat de l'art i es proposa una classificació dels treballs existents en l'àrea de l'argumentació computacional. Aquesta revisió permet contextualitzar i entendre la investigació previa de forma més clara des de la perspectiva humana del raonament argumentatiu, així com identificar les principals limitacions i futures tendències de la investigació realitzada en argumentació computacional. En segon lloc, amb l'objectiu de sol$\cdot$lucionar algunes d'aquestes limitacions, hem creat i descrit un nou conjunt de dades que ens permet abordar nous reptes i investigar problemes prèviament inabordables (e.g., avaluació automàtica de debats orals). Conjuntament amb aquestes dades, es proposa un nou sistema per a l'extracció d'arguments i es realitza l'anàlisi comparativa de distintes tècniques per a aquesta mateixa tasca. A més a més, es proposa un nou algoritme per a l'avaluació automàtica de debats argumentatius i es prova amb debats humans reals. Finalment, en tercer lloc es presenten una sèrie d'estudis i propostes per a millorar la capacitat persuasiva de sistemes d'argumentació computacionals en la interacció amb usuaris humans. D'aquesta forma, en aquesta tesi es presenten avanços en cada una de les parts principals del procés d'argumentació computacional (i.e., l'extracció automàtica d'arguments, la representació del coneixement i raonament basats en arguments, i la interacció humà-computador basada en arguments), així com es proposen alguns dels fonaments essencials per a l'anàlisi automàtica completa de discursos argumentatius en llenguatge natural. / [EN] Computational argumentation is the area of research that studies and analyses the use of different techniques and algorithms that approximate human argumentative reasoning from a computational viewpoint. In this doctoral thesis we study the use of different techniques proposed under the framework of computational argumentation to perform an automatic analysis of argumentative discourse, and to develop argument-based computational persuasion techniques. With these objectives in mind, we first present a complete review of the state of the art and propose a classification of existing works in the area of computational argumentation. This review allows us to contextualise and understand the previous research more clearly from the human perspective of argumentative reasoning, and to identify the main limitations and future trends of the research done in computational argumentation. Secondly, to overcome some of these limitations, we create and describe a new corpus that allows us to address new challenges and investigate on previously unexplored problems (e.g., automatic evaluation of spoken debates). In conjunction with this data, a new system for argument mining is proposed and a comparative analysis of different techniques for this same task is carried out. In addition, we propose a new algorithm for the automatic evaluation of argumentative debates and we evaluate it with real human debates. Thirdly, a series of studies and proposals are presented to improve the persuasiveness of computational argumentation systems in the interaction with human users. In this way, this thesis presents advances in each of the main parts of the computational argumentation process (i.e., argument mining, argument-based knowledge representation and reasoning, and argument-based human-computer interaction), and proposes some of the essential foundations for the complete automatic analysis of natural language argumentative discourses. / This thesis has been partially supported by the Generalitat Valenciana project PROMETEO/2018/002 and by the Spanish Government projects TIN2017-89156-R and PID2020-113416RB-I00 / Ruiz Dolz, R. (2023). Computational Argumentation for the Automatic Analysis of Argumentative Discourse and Human Persuasion [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/194806 / Compendio
|
398 |
Information Retrieval Based on DOM TreesAlarte Aleixandre, Julián 14 September 2023 (has links)
[ES] Desde hace varios años, la cantidad de información disponible en la web crece de manera exponencial. Cada día se genera una gran cantidad de información que prácticamente de inmediato está disponible en la web. Los buscadores e indexadores recorren diariamente la web para encontrar toda esa información que se ha ido añadiendo y así, ponerla a disposición del usuario devolviéndola en los resultados de las búsquedas. Sin embargo, la cantidad de información es tan grande que debe ser preprocesada con anterioridad. Dado que el usuario que realiza una búsqueda de información solamente está interesado en la información relevante, no tiene sentido que los buscadores e indexadores procesen el resto de elementos de las páginas web. El procesado de elementos irrelevantes de páginas web supone un gasto de recursos innecesario, como por ejemplo espacio de almacenamiento, tiempo de procesamiento, uso de ancho de banda, etc. Se estima que entre el 40% y el 50% del contenido de las páginas web son elementos irrelevantes. Por eso, en los últimos 20 años se han desarrollado técnicas para la detección de elementos tanto relevantes como irrelevantes de páginas web. Este objetivo se puede abordar de diversas maneras, por lo que existen técnicas diametralmente distintas para afrontar el problema. Esta tesis se centra en el desarrollo de técnicas basadas en árboles DOM para la detección de diversas partes de las páginas web, como son el contenido principal, la plantilla, y el menú. La mayoría de técnicas existentes se centran en la detección de texto dentro del contenido principal de las páginas web, ya sea eliminando la plantilla de dichas páginas o detectando directamente el contenido principal. Las técnicas que proponemos no sólo son capaces de realizar la extracción de texto, sino que, bien por eliminación de plantilla o bien por detección del contenido principal, son capaces de aislar cualquier elemento relevante de las páginas web, como por ejemplo imágenes, animaciones, videos, etc. Dichas técnicas no sólo son útiles para buscadores y rastreadores, sino que también pueden ser útiles directamente para el usuario que navega por la web. Por ejemplo, en el caso de usuarios con diversidad funcional (como sería una ceguera) puede ser interesante la eliminación de elementos irrelevantes para facilitar la lectura (o escucha) de las páginas web. Para hacer las técnicas accesibles a todo el mundo, las hemos implementado como extensiones del navegador, y son compatibles con navegadores basados en Mozilla o en Chromium. Además, estas herramientas están públicamente disponibles para que cualquier persona interesada pueda acceder a ellas y continuar con la investigación si así lo deseara. / [CA] Des de fa diversos anys, la quantitat d'informació disponible en la web creix de manera exponencial. Cada dia es genera una gran quantitat d'informació que immediatament es posa disponible en la web. Els cercadors i indexadors recorren diàriament la web per a trobar tota aqueixa informació que s'ha anat afegint i així, posar-la a la disposició de l'usuari retornant-la en els resultats de les cerques. No obstant això, la quantitat d'informació és tan gran que aquesta ha de ser preprocessada. Atés que l'usuari que realitza una cerca d'informació solament es troba interessat en la informació rellevant, no té sentit que els cercadors i indexadors processen la resta d'elements de les pàgines web. El processament d'elements irrellevants de pàgines web suposa una despesa de recursos innecessària, com per exemple espai d'emmagatzematge, temps de processament, ús d'amplada de banda, etc. S'estima que entre el 40% i el 50% del contingut de les pàgines web són elements irrellevants. Precisament per això, en els últims 20 anys s'han desenvolupat tècniques per a la detecció d'elements tant rellevants com irrellevants de pàgines web. Aquest objectiu es pot afrontar de diverses maneres, per la qual cosa existeixen tècniques diametralment diferents per a afrontar el problema. Aquesta tesi se centra en el desenvolupament de tècniques basades en arbres DOM per a la detecció de diverses parts de les pàgines web, com són el contingut principal, la plantilla, i el menú. La majoria de tècniques existents se centren en la detecció de text dins del contingut principal de les pàgines web, ja siga eliminant la plantilla d'aquestes pàgines o detectant directament el contingut principal. Les tècniques que hi proposem no sols són capaces de realitzar l'extracció de text, sinó que, bé per eliminació de plantilla o bé per detecció del contingut principal, són capaços d'aïllar qualsevol element rellevant de les pàgines web, com per exemple imatges, animacions, vídeos, etc. Aquestes tècniques no sols són útils per a cercadors i rastrejadors, sinó també poden ser útils directament per a l'usuari que navega per la web. Per exemple, en el cas d'usuaris amb diversitat funcional (com ara una ceguera) pot ser interessant l'eliminació d'elements irrellevants per a facilitar-ne la lectura (o l'escolta) de les pàgines web. Per a fer les tècniques accessibles a tothom, les hem implementades com a extensions del navegador, i són compatibles amb navegadors basats en Mozilla i en Chromium. A més, aquestes eines estan públicament disponibles perquè qualsevol persona interessada puga accedir a elles i continuar amb la investigació si així ho desitjara. / [EN] For several years, the amount of information available on the Web has been growing exponentially. Every day, a huge amount of data is generated and it is made immediately available on the Web. Indexers and crawlers browse the Web daily to find the new information that has been added, and they make it available to answer the users' search queries. However, the amount of information is so huge that it must be preprocessed. Given that users are only interested in the relevant information, it is not necessary for indexers and crawlers to process other boilerplate, redundant or useless elements of the web pages. Processing such irrelevant elements lead to an unnecessary waste of resources, such as storage space, runtime, bandwidth, etc. Different studies have shown that between 40% and 50% of the data on the Web are noisy elements. For this reason, several techniques focused on the detection of both, relevant and irrelevant data, have been developed over the last 20 years. The problems of identifying the relevant content of a web page, its template, its menu, etc. can be faced in various ways, and for this reason, there exist completely different techniques to address those problems. This thesis is focused on the development of information retrieval techniques based on DOM trees. Its goal is to detect different parts of a web page, such as the main content, the template, and the main menu. Most of the existing techniques are focused on the detection of text inside the main content of the web pages, mainly by removing the template of the web page or by inferring the main content. The techniques proposed in this thesis do not only extract text by eliminating the template or inferring the main content, but also extract any other relevant information from web pages such as images, animations, videos, etc. Our techniques are not only useful for indexers and crawlers but also for the user browsing the Web. For instance, in the case of users with functional diversity problems (such as blindness), removing noisy elements can facilitate them to read (or listen to) the web pages. To make the techniques broadly accessible to everybody, we have implemented them as browser extensions, which are compatible with Mozilla-based and Chromium-based browsers. In addition, these tools are publicly available, so any interested person can access them and continue with the research if they wish to do so. / Alarte Aleixandre, J. (2023). Information Retrieval Based on DOM Trees [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196679
|
399 |
Standardisation of the Protection and Governance of Multimedia ContentRodríguez Luna, Eva 02 February 2007 (has links)
Els sistemes de gestió de drets digitals controlen l'ús del contingut multimèdia a través de tota la cadena de valor digital. Aquesta tesis contribueix als diferents aspectes de la gestió dels drets digitals i de la protecció de la propietat intel·lectual.La contribució d'aquest tesi és la definició de formats i mecanismes estàndards que permetin la gestió del contingut a través de la cadena de valor digital. Els formats i els mecanismes seran estàndards, de forma que permetran la interoperabilitat entre sistemes de DRM que segueixin l'estàndard MPEG-21.També s'han dissenyat mecanismes estàndards per governar continguts digitals, protegir la propietat intel·lectual i per a la gestió i protecció de les notificacions d'esdeveniments dins dels sistemes de gestió de drets digitals. / Los sistemas de gestión de derechos digitales controlan el uso del contenido multimedia a través de toda la cadena de valor digital. Esta tesis contribuye a diferentes aspectos de la gestión de los derechos digitales y de la protección de la propiedad intelectual.La contribución de esta tesis es la definición formatos y mecanismos estándares que permitan la gestión del contenido a través de la cadena de valor digital. Los formatos y mecanismos serán estándares, de forma que permitirán la interoperabilidad entre sistemas de DRM que sigan el estándar MPEG-21. También se han diseñado mecanismos estándares para gobernar contenidos digitales, proteger la propiedad intelectual y para la gestión y protección de las notificaciones de eventos dentro de los sistemas de gestión de derechos digitales. / Digital rights management systems control the use of multimedia content through the complete digital value chain. This thesis contributes in different aspects of the digital rights management and of the protection of the intellectual property.Main contribution of this thesis is the definition of standardised formats and mechanisms that enable the management of governed multimedia content through the digital value chain. The formats and mechanisms will be standard in order to enable interoperability between DRM systems compliant to the MPEG-21 standard.Different mechanisms have also been defined to govern digital content, protect the intellectual property and for the management and protection of the event reports within digital rights management systems.
|
400 |
Ingeniería de conocimiento para la mejora de la orientación académica (2015-2020)Startseva, Elena 11 February 2021 (has links)
Elegir el grado universitario que van a cursar es una decisión muy importante para muchos jóvenes que carecen de experiencias previas en este sentido. El objetivo principal de este trabajo es construir el sistema de apoyo a la toma de decisión sobre una base de conocimiento modular. En este caso, los módulos que definen las directrices de capacitación se forman conjuntamente con los expertos y se fundan en el método de Holland. Permitirá al usuario, en primer lugar, definir una modalidad académica elegida en la escuela secundaria y solo después ser definido con una carrera universitaria, dentro de la rama de conocimiento establecida. Se ha desarrollado BPMN-modelo del proceso a la toma de decisiones para elegir la mejor carrera universitaria. Se han identificado los factores significativos con método de análisis jerárquico, el efecto de los cuales se correlaciona directamente con los resultados de elección de la carrera universitaria y, además, afectan al rendimiento de los estudiantes. Se ha desarrollado la ontología con las interrelaciones entre los factores clave. Se ha formado del principio modular un base de conocimiento. Se han elaborado satisfactoriamente las reglas de entrada a la universidad, las reglas de elección de la rama de los estudios universitarios, y las reglas para mejorar el rendimiento académico con la finalización satisfactoria de los estudios universitarios. Con los resultados obtenidos y que se presenten en el trabajo, podemos concluir que se pueda lograr el objetivo principal del estudio para optimizar tiempo dedicado a los estudios y mejorar la calidad de vida y el rendimiento académico de los estudiantes de una carrera universitaria. Además, permite poder anticipar los itinerarios a elegir durante la etapa de educación secundaria para así incrementar su preparación.
|
Page generated in 0.085 seconds