• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 63
  • 38
  • Tagged with
  • 101
  • 101
  • 100
  • 30
  • 27
  • 18
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Long-Read RNA-Seq: Quality Control and Benchmarking

Pardo Palacios, Francisco José 18 November 2024 (has links)
[ES] La presente tesis muestra la utilización de las lecturas largas para resolver las limitaciones asociadas al ARN-Seq habitual, presentando innovaciones significativas en este campo. Las lecturas largas permiten capturar transcritos completos y detectar nuevas variantes de splicing, mejorando los resultados obtenidos con lecturas cortas en términos de precisión ya que no existe la necesidad de realizar un ensamblado de lecturas que podría dar lugar a isoformas quiméricas. En el marco de este trabajo, se ha desarrollado la herramienta SQANTI3, diseñada para la evaluación y filtrado de transcriptomas. SQANTI3 clasifica modelos de transcripción de lecturas largas según categorías estructurales basadas en sus splice junctions (SJ) y anota diversas características de calidad, tales como la presencia de SJ no canónicas o la fiabilidad de las anotaciones de los sitios de inicio y término de transcripción (TSS y TTS, por sus siglas en inglés) utilizando datos ortogonales. También ofrece un módulo de filtrado de artefactos basado en aprendizaje automático y reglas definidas por el usuario, así como un módulo de "rescate" para evitar la pérdida de genes completos por un filtrado excesivo. Por último, SQANTI3 integra la anotación funcional de los transcriptomas con isoAnnot Lite, facilitando el análisis de cambios en la expresión de isoformas y sus implicaciones funcionales. SQANTI3 se utilizó en los retos 1 y 3 del proyecto LRGASP (Long-read RNA-seq Genome Annotation Assessment Project), un esfuerzo internacional y multicéntrico para el benchmarking de herramientas bioinformáticas de lecturas largas en ARN-Seq. Ambos retos se centraron en la identificación correcta de transcritos en organismos altamente anotados (reto 1) y en organismos no modelo con limitaciones de información a priori (reto 3). LRGASP proporcionó datos de diferentes tecnologías y protocolos a los participantes para que presentaran los resultados obtenidos sus herramientas bioinformáticas. Estos resultados se evaluaron y compararon utilizando SQANTI3, dejando patente las diferencias de transcriptomas obtenidos para una misma muestra dependiendo de los datos y métodos empleados. En resumen, el trabajo en esta tesis resalta la importancia que la utilización de lecturas largas para ARN-Seq puede tener en el futuro y como SQANTI3 es y será una herramienta clave para la evaluación y mejora de la calidad de los transcriptomas. / [CA] La present tesi mostra la utilització de les lectures llargues per resoldre les limitacions associades a l'ARN-Seq habitual, presentant innovacions significatives en aquest camp. Les lectures llargues permeten capturar transcrits complets i detectar noves variants de splicing, millorant els resultats obtinguts amb lectures curtes en termes de precisió, ja que no és necessari realitzar un assemblatge de lectures que podria donar lloc a isoformes quimèriques. En el marc d'aquest treball, s'ha desenvolupat l'eina SQANTI3, dissenyada per a l'avaluació i filtratge de transcriptomes. SQANTI3 classifica models de transcripció de lectures llargues segons categories estructurals basades en les seues splice junctions (SJ) i anota diverses característiques de qualitat, com la presència de SJ no canòniques o la fiabilitat de les anotacions dels llocs d'inici i terme de transcripció (TSS i TTS, per les seues sigles en anglés) utilitzant dades ortogonals. També ofereix un mòdul de filtratge d'artefactes basat en aprenentatge automàtic o regles definides per l'usuari, així com un mòdul de "rescat" per a evitar la pèrdua de gens complets per un filtratge excessiu. Finalment, SQANTI3 integra l'anotació funcional dels transcriptomes amb isoAnnot Lite, facilitant l'anàlisi de canvis en l'expressió d'isoformes i les seues implicacions funcionals. SQANTI3 es va utilitzar en els reptes 1 i 3 del projecte LRGASP (Long-read RNA-seq Genome Annotation Assessment Project), un esforç internacional i multicèntric per al benchmarking d'eines bioinformàtiques de lectures llargues en ARN-Seq. Ambdós reptes es van centrar en la identificació correcta de transcrits en organismes altament anotats (repte 1) i en organismes no model amb limitacions d'informació a priori (repte 3). LRGASP va proporcionar dades de diferents tecnologies i protocols als participants perquè presentaren els resultats obtinguts amb les seues eines bioinformàtiques. Aquests resultats es van avaluar i comparar utilitzant SQANTI3, deixant patent les diferències de transcriptomes obtinguts per a una mateixa mostra depenent de les dades i mètodes emprats. En resum, aquesta tesi ressalta la importància que la utilització de lectures llargues per a ARN-Seq pot tindre en el futur i com SQANTI3 és i serà una eina clau per a l'avaluació i millora de la qualitat dels transcriptomes. / [EN] This thesis presents the usage of long-read sequencing to overcome the limitations associated with conventional RNA-Seq, introducing significant innovations in this field. Long-read sequencing enables the capture of full-length transcripts and the detection of novel splicing variants, improving the accuracy of results compared to short-read sequencing, as there is no need for assembly, which could otherwise lead to chimeric isoforms. As part of this work, the SQANTI3 tool has been designed and developed for the evaluation and filtering of transcriptomes. SQANTI3 classifies long-read transcription models into structural categories based on their splice junctions (SJ) and annotates a wide variety of quality features, such as the presence of non-canonical SJs or the reliability of Transcription Start and Termination Sites (TSS and TTS) detected using orthogonal data. It also includes an artifact filtering module based on machine learning or user-defined rules, as well as a "rescue" module to prevent the loss of complete genes due to excessive filtering. Finally, SQANTI3 integrates the functional annotation of transcriptomes with isoAnnot Lite, facilitating the analysis of isoform expression changes and their functional implications. SQANTI3 was used in challenges 1 and 3 of the Long-read RNA-seq Genome Annotation Assessment Project (LRGASP), an international and multicenter effort to benchmark bioinformatic tools for long-read RNA-Seq data. Both challenges focused on the correct identification of transcripts in well-annotated organisms (challenge 1) and in non-model organisms with limited prior information (challenge 3). LRGASP provided participants with data from different sequencing technologies and protocols to submit the results obtained by their bioinformatics tools. These results were evaluated and compared using SQANTI3, highlighting the differences in transcriptomes obtained from the same sample depending on the data and methods used. In summary, the work in thesis emphasizes the importance that long-read RNA-Seq can have in the future and how SQANTI3 is and will continue to be a key tool for the evaluation and improvement of transcriptome quality. / The project is supported by the following grants: Pew Charitable Trust, NIGMS R35GM138122, NHGRI R21HG011280, Spanish Ministry of Science PID2020-119537RB-10, NIGMS R35GM142647, NIGMS R35GM133569, NHGRI U41HG007234, NHGRI F31HG010999, and UM1 HG009443, NHGRI R01HG008759 and R01HG011469, NHGRI R01HG007182, NHGRI UM1HG009402, NHMRC Investigator Grant GNT2017257, Comunitat Valenciana Grant ACIF/2018/290, Chan Zuckerberg Initiative DAF, an advised fund of Silicon Valley Community Foundation, Grant No. 2019-002443, an institutional fund from the Department of Biomedical Informatics, The Ohio State University, an institutional fund from the Department of Computational Medicine and Bioinformatics, University of Michigan, SPBU 73023672, AMED 22kk0305013h9903, 23kk0305024h0001, Wellcome Trust [WT222155/Z/20/Z] , and European Molecular Biology Laboratory. We acknowledge the support of the Spanish Ministry of Science and Innovation to the EMBL partnership, Centro de Excelencia Severo Ochoa, and CERCA Programme / Generalitat de Catalunya and the support of the German Federal Ministry of Education and Research with the grant 161L0242A. This work has been also funded by NIH grant R21HG011280, by the Spanish Ministry of Science grants BES-2016-076994 and PID2020-119537RB-100, and by the Comunitat Valenciana grant ACIF/2018/290. / Pardo Palacios, FJ. (2024). Long-Read RNA-Seq: Quality Control and Benchmarking [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/212027
72

Machine Learning and Multivariate Statistical Tools for Football Analytics

Malagón Selma, María del Pilar 05 October 2023 (has links)
[ES] Esta tesis doctoral se centra en el estudio, implementación y aplicación de técnicas de aprendizaje automático y estadística multivariante en el emergente campo de la analítica deportiva, concretamente en el fútbol. Se aplican procedimientos comunmente utilizados y métodos nuevos para resolver cuestiones de investigación en diferentes áreas del análisis del fútbol, tanto en el ámbito del rendimiento deportivo como en el económico. Las metodologías empleadas en esta tesis enriquecen las técnicas utilizadas hasta el momento para obtener una visión global del comportamiento de los equipos de fútbol y pretenden ayudar al proceso de toma de decisiones. Además, la metodología se ha implementado utilizando el software estadístico libre R y datos abiertos, lo que permite la replicabilidad de los resultados. Esta tesis doctoral pretende contribuir a la comprensión de los modelos de aprendizaje automático y estadística multivariante para la predicción analítica deportiva, comparando su capacidad predictiva y estudiando las variables que más influyen en los resultados predictivos de estos modelos. Así, siendo el fútbol un juego de azar donde la suerte juega un papel importante, se proponen metodologías que ayuden a estudiar, comprender y modelizar la parte objetiva de este deporte. Esta tesis se estructura en cinco bloques, diferenciando cada uno en función de la base de datos utilizada para alcanzar los objetivos propuestos. El primer bloque describe las áreas de estudio más comunes en la analítica del fútbol y las clasifica en función de los datos utilizados. Esta parte contiene un estudio exhaustivo del estado del arte de la analítica del fútbol. Así, se recopila parte de la literatura existente en función de los objetivos alcanzados, conjuntamente con una revisión de los métodos estadísticos aplicados. Estos modelos son los pilares sobre los que se sustentan los nuevos procedimientos aquí propuestos. El segundo bloque consta de dos capítulos que estudian el comportamiento de los equipos que alcanzan la Liga de Campeones o la Europa League, descienden a segunda división o permanecen en mitad de la tabla. Se proponen varias técnicas de aprendizaje automático y estadística multivariante para predecir la posición de los equipos a final de temporada. Una vez realizada la predicción, se selecciona el modelo con mejor precisión predictiva para estudiar las acciones de juego que más discriminan entre posiciones. Además, se analizan las ventajas de las técnicas propuestas frente a los métodos clásicos utilizados hasta el momento. El tercer bloque consta de un único capítulo en el que se desarrolla un código de web scraping para facilitar la recuperación de una nueva base de datos con información cuantitativa de las acciones de juego realizadas a lo largo del tiempo en los partidos de fútbol. Este bloque se centra en la predicción de los resultados de los partidos (victoria, empate o derrota) y propone la combinación de una técnica de aprendizaje automático, random forest, y la regresión Skellam, un método clásico utilizado habitualmente para predecir la diferencia de goles en el fútbol. Por último, se compara la precisión predictiva de los métodos clásicos utilizados hasta ahora con los métodos multivariantes propuestos. El cuarto bloque también comprende un único capítulo y pertenece al área económica del fútbol. En este capítulo se aplica un novedoso procedimiento para desarrollar indicadores que ayuden a predecir los precios de traspaso. En concreto, se muestra la importancia de la popularidad a la hora de calcular el valor de mercado de los jugadores, por lo que este capítulo propone una nueva metodología para la recogida de información sobre la popularidad de los jugadores. En el quinto bloque se revelan los aspectos más relevantes de esta tesis para la investigación y la analítica en el fútbol, incluyendo futuras líneas de trabajo. / [CA] Aquesta tesi doctoral se centra en l'estudi, implementació i aplicació de tècniques d'aprenentatge automàtic i estadística multivariant en l'emergent camp de l'analítica esportiva, concretament en el futbol. S'apliquen procediments comunament utilitzats i mètodes nous per a resoldre qu¿estions d'investigació en diferents àrees de l'anàlisi del futbol, tant en l'àmbit del rendiment esportiu com en l'econòmic. Les metodologies emprades en aquesta tesi enriqueixen les tècniques utilitzades fins al moment per a obtindre una visió global del comportament dels equips de futbol i pretenen ajudar al procés de presa de decisions. A més, la metodologia s'ha implementat utilitzant el programari estadístic lliure R i dades obertes, la qual cosa permet la replicabilitat dels resultats. Aquesta tesi doctoral pretén contribuir a la comprensió dels models d'aprenentatge automàtic i estadística multivariant per a la predicció analítica esportiva, comparant la seua capacitat predictiva i estudiant les variables que més influeixen en els resultats predictius d'aquests models. Així, sent el futbol un joc d'atzar on la sort juga un paper important, es proposen metodologies que ajuden a estudiar, comprendre i modelitzar la part objectiva d'aquest esport. Aquesta tesi s'estructura en cinc blocs, diferenciant cadascun en funció de la base de dades utilitzada per a aconseguir els objectius proposats. El primer bloc descriu les àrees d'estudi més comuns en l'analítica del futbol i les classifica en funció de les dades utilitzades. Aquesta part conté un estudi exhaustiu de l'estat de l'art de l'analítica del futbol. Així, es recopila part de la literatura existent en funció dels objectius aconseguits, conjuntament amb una revisió dels mètodes estadístics aplicats. Aquests models són els pilars sobre els quals se sustenten els nous procediments ací proposats. El segon bloc consta de dos capítols que estudien el comportament dels equips que aconsegueixen la Lliga de Campions o l'Europa League, descendeixen a segona divisió o romanen a la meitat de la taula. Es proposen diverses tècniques d'aprenentatge automàtic i estadística multivariant per a predir la posició dels equips a final de temporada. Una vegada realitzada la predicció, se selecciona el model amb millor precisió predictiva per a estudiar les accions de joc que més discriminen entre posicions. A més, s'analitzen els avantatges de les tècniques proposades enfront dels mètodes clàssics utilitzats fins al moment. El tercer bloc consta d'un únic capítol en el qual es desenvolupa un codi de web scraping per a facilitar la recuperació d'una nova base de dades amb informació quantitativa de les accions de joc realitzades al llarg del temps en els partits de futbol. Aquest bloc se centra en la predicció dels resultats dels partits (victòria, empat o derrota) i proposa la combinació d'una tècnica d'aprenentatge automàtic, random forest, i la regressió Skellam, un mètode clàssic utilitzat habitualment per a predir la diferència de gols en el futbol. Finalment, es compara la precisió predictiva dels mètodes clàssics utilitzats fins ara amb els mètodes multivariants proposats. El quart bloc també comprén un únic capítol i pertany a l'àrea econòmica del futbol. En aquest capítol s'aplica un nou procediment per a desenvolupar indicadors que ajuden a predir els preus de traspàs. En concret, es mostra la importància de la popularitat a l'hora de calcular el valor de mercat dels jugadors, per la qual cosa aquest capítol proposa una nova metodologia per a la recollida d'informació sobre la popularitat dels jugadors. En el cinqué bloc es revelen els aspectes més rellevants d'aquesta tesi per a la investigació i l'analítica en el futbol, incloent-hi futures línies de treball. / [EN] This doctoral thesis focuses on studying, implementing, and applying machine learning and multivariate statistics techniques in the emerging field of sports analytics, specifically in football. Commonly used procedures and new methods are applied to solve research questions in different areas of football analytics, both in the field of sports performance and in the economic field. The methodologies used in this thesis enrich the techniques used so far to obtain a global vision of the behaviour of football teams and are intended to help the decision-making process. In addition, the methodology was implemented using the free statistical software R and open data, which allows for reproducibility of the results. This doctoral thesis aims to contribute to the understanding of the behaviour of machine learning and multivariate models for analytical sports prediction, comparing their predictive capacity and studying the variables that most influence the predictive results of these models. Thus, since football is a game of chance where luck plays an important role, this document proposes methodologies that help to study, understand, and model the objective part of this sport. This thesis is structured into five blocks, differentiating each according to the database used to achieve the proposed objectives. The first block describes the most common study areas in football analytics and classifies them according to the available data. This part contains an exhaustive study of football analytics state of the art. Thus, part of the existing literature is compiled based on the objectives achieved, with a review of the statistical methods applied. These methods are the pillars on which the new procedures proposed here are based. The second block consists of two chapters that study the behaviour of teams concerning the ranking at the end of the season: top (qualifying for the Champions League or Europa League), middle, or bottom (relegating to a lower division). Several machine learning and multivariate statistical techniques are proposed to predict the teams' position at the season's end. Once the prediction has been made, the model with the best predictive accuracy is selected to study the game actions that most discriminate between positions. In addition, the advantages of our proposed techniques compared to the classical methods used so far are analysed. The third block consists of a single chapter in which a web scraping code is developed to facilitate the retrieval of a new database with quantitative information on the game actions carried out over time in football matches. This block focuses on predicting match outcomes (win, draw, or loss) and proposing the combination of a machine learning technique, random forest, and Skellam regression model, a classical method commonly used to predict goal difference in football. Finally, the predictive accuracy of the classical methods used so far is compared with the proposed multivariate methods. The fourth block also comprises a single chapter and pertains to the economic football area. This chapter applies a novel procedure to develop indicators that help predict transfer fees. Specifically, it is shown the importance of popularity when calculating the players' market value, so this chapter is devoted to propose a new methodology for collecting players' popularity information. The fifth block reveals the most relevant aspects of this thesis for research and football analytics, including future lines of work. / Malagón Selma, MDP. (2023). Machine Learning and Multivariate Statistical Tools for Football Analytics [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/197630
73

Deep Learning Strategies for Overcoming Diagnosis Challenges with Limited Annotations

Amor del Amor, María Rocío del 27 November 2023 (has links)
Tesis por compendio / [ES] En los últimos años, el aprendizaje profundo (DL) se ha convertido en una de las principales áreas de la inteligencia artificial (IA), impulsado principalmente por el avance en la capacidad de procesamiento. Los algoritmos basados en DL han logrado resultados asombrosos en la comprensión y manipulación de diversos tipos de datos, incluyendo imágenes, señales de habla y texto. La revolución digital del sector sanitario ha permitido la generación de nuevas bases de datos, lo que ha facilitado la implementación de modelos de DL bajo el paradigma de aprendizaje supervisado. La incorporación de estos métodos promete mejorar y automatizar la detección y el diagnóstico de enfermedades, permitiendo pronosticar su evolución y facilitar la aplicación de intervenciones clínicas de manera más efectiva. Una de las principales limitaciones de la aplicación de algoritmos de DL supervisados es la necesidad de grandes bases de datos anotadas por expertos, lo que supone una barrera importante en el ámbito médico. Para superar este problema, se está abriendo un nuevo campo de desarrollo de estrategias de aprendizaje no supervisado o débilmente supervisado que utilizan los datos disponibles no anotados o débilmente anotados. Estos enfoques permiten aprovechar al máximo los datos existentes y superar las limitaciones de la dependencia de anotaciones precisas. Para poner de manifiesto que el aprendizaje débilmente supervisado puede ofrecer soluciones óptimas, esta tesis se ha enfocado en el desarrollado de diferentes paradigmas que permiten entrenar modelos con bases de datos débilmente anotadas o anotadas por médicos no expertos. En este sentido, se han utilizado dos modalidades de datos ampliamente empleadas en la literatura para estudiar diversos tipos de cáncer y enfermedades inflamatorias: datos ómicos e imágenes histológicas. En el estudio sobre datos ómicos, se han desarrollado métodos basados en deep clustering que permiten lidiar con las altas dimensiones inherentes a este tipo de datos, desarrollando un modelo predictivo sin la necesidad de anotaciones. Al comparar el método propuesto con otros métodos de clustering presentes en la literatura, se ha observado una mejora en los resultados obtenidos. En cuanto a los estudios con imagen histológica, en esta tesis se ha abordado la detección de diferentes enfermedades, incluyendo cáncer de piel (melanoma spitzoide y neoplasias de células fusocelulares) y colitis ulcerosa. En este contexto, se ha empleado el paradigma de multiple instance learning (MIL) como línea base en todos los marcos desarrollados para hacer frente al gran tamaño de las imágenes histológicas. Además, se han implementado diversas metodologías de aprendizaje, adaptadas a los problemas específicos que se abordan. Para la detección de melanoma spitzoide, se ha utilizado un enfoque de aprendizaje inductivo que requiere un menor volumen de anotaciones. Para abordar el diagnóstico de colitis ulcerosa, que implica la identificación de neutrófilos como biomarcadores, se ha utilizado un enfoque de aprendizaje restrictivo. Con este método, el coste de anotación se ha reducido significativamente al tiempo que se han conseguido mejoras sustanciales en los resultados obtenidos. Finalmente, considerando el limitado número de expertos en el campo de las neoplasias de células fusiformes, se ha diseñado y validado un novedoso protocolo de anotación para anotaciones no expertas. En este contexto, se han desarrollado modelos de aprendizaje profundo que trabajan con la incertidumbre asociada a dichas anotaciones. En conclusión, esta tesis ha desarrollado técnicas de vanguardia para abordar el reto de la necesidad de anotaciones precisas que requiere el sector médico. A partir de datos débilmente anotados o anotados por no expertos, se han propuesto novedosos paradigmas y metodologías basados en deep learning para abordar la detección y diagnóstico de enfermedades utilizando datos ómicos e imágenes histológicas. / [CA] En els últims anys, l'aprenentatge profund (DL) s'ha convertit en una de les principals àrees de la intel·ligència artificial (IA), impulsat principalment per l'avanç en la capacitat de processament. Els algorismes basats en DL han aconseguit resultats sorprenents en la comprensió i manipulació de diversos tipus de dades, incloent-hi imatges, senyals de parla i text. La revolució digital del sector sanitari ha permés la generació de noves bases de dades, la qual cosa ha facilitat la implementació de models de DL sota el paradigma d'aprenentatge supervisat. La incorporació d'aquests mètodes promet millorar i automatitzar la detecció i el diagnòstic de malalties, permetent pronosticar la seua evolució i facilitar l'aplicació d'intervencions clíniques de manera més efectiva. Una de les principals limitacions de l'aplicació d'algorismes de DL supervisats és la necessitat de grans bases de dades anotades per experts, la qual cosa suposa una barrera important en l'àmbit mèdic. Per a superar aquest problema, s'està obrint un nou camp de desenvolupament d'estratègies d'aprenentatge no supervisat o feblement supervisat que utilitzen les dades disponibles no anotades o feblement anotats. Aquests enfocaments permeten aprofitar al màxim les dades existents i superar les limitacions de la dependència d'anotacions precises. Per a posar de manifest que l'aprenentatge feblement supervisat pot oferir solucions òptimes, aquesta tesi s'ha enfocat en el desenvolupat de diferents paradigmes que permeten entrenar models amb bases de dades feblement anotades o anotades per metges no experts. En aquest sentit, s'han utilitzat dues modalitats de dades àmpliament emprades en la literatura per a estudiar diversos tipus de càncer i malalties inflamatòries: dades ómicos i imatges histològiques. En l'estudi sobre dades ómicos, s'han desenvolupat mètodes basats en deep clustering que permeten bregar amb les altes dimensions inherents a aquesta mena de dades, desenvolupant un model predictiu sense la necessitat d'anotacions. En comparar el mètode proposat amb altres mètodes de clustering presents en la literatura, s'ha observat una millora en els resultats obtinguts. Quant als estudis amb imatge histològica, en aquesta tesi s'ha abordat la detecció de diferents malalties, incloent-hi càncer de pell (melanoma spitzoide i neoplàsies de cèl·lules fusocelulares) i colitis ulcerosa. En aquest context, s'ha emprat el paradigma de multiple instance learning (MIL) com a línia base en tots els marcs desenvolupats per a fer front a la gran grandària de les imatges histològiques. A més, s'han implementat diverses metodologies d'aprenentatge, adaptades als problemes específics que s'aborden. Per a la detecció de melanoma spitzoide, s'ha utilitzat un enfocament d'aprenentatge inductiu que requereix un menor volum d'anotacions. Per a abordar el diagnòstic de colitis ulcerosa, que implica la identificació de neutròfils com biomarcadores, s'ha utilitzat un enfocament d'aprenentatge restrictiu. Amb aquest mètode, el cost d'anotació s'ha reduït significativament al mateix temps que s'han aconseguit millores substancials en els resultats obtinguts. Finalment, considerant el limitat nombre d'experts en el camp de les neoplàsies de cèl·lules fusiformes, s'ha dissenyat i validat un nou protocol d'anotació per a anotacions no expertes. En aquest context, s'han desenvolupat models d'aprenentatge profund que treballen amb la incertesa associada a aquestes anotacions. En conclusió, aquesta tesi ha desenvolupat tècniques d'avantguarda per a abordar el repte de la necessitat d'anotacions precises que requereix el sector mèdic. A partir de dades feblement anotades o anotats per no experts, s'han proposat nous paradigmes i metodologies basats en deep learning per a abordar la detecció i diagnòstic de malalties utilitzant dades *ómicos i imatges histològiques. Aquestes innovacions poden millorar l'eficàcia i l'automatització en la detecció precoç i el seguiment de malalties. / [EN] In recent years, deep learning (DL) has become one of the main areas of artificial intelligence (AI), driven mainly by the advancement in processing power. DL-based algorithms have achieved amazing results in understanding and manipulating various types of data, including images, speech signals and text. The digital revolution in the healthcare sector has enabled the generation of new databases, facilitating the implementation of DL models under the supervised learning paradigm. Incorporating these methods promises to improve and automate the detection and diagnosis of diseases, allowing the prediction of their evolution and facilitating the application of clinical interventions with higher efficacy. One of the main limitations in the application of supervised DL algorithms is the need for large databases annotated by experts, which is a major barrier in the medical field. To overcome this problem, a new field of developing unsupervised or weakly supervised learning strategies using the available unannotated or weakly annotated data is opening up. These approaches make the best use of existing data and overcome the limitations of reliance on precise annotations. To demonstrate that weakly supervised learning can offer optimal solutions, this thesis has focused on developing different paradigms that allow training models with weakly annotated or non-expert annotated databases. In this regard, two data modalities widely used in the literature to study various types of cancer and inflammatory diseases have been used: omics data and histological images. In the study on omics data, methods based on deep clustering have been developed to deal with the high dimensions inherent to this type of data, developing a predictive model without requiring annotations. In comparison, the results of the proposed method outperform other existing clustering methods. Regarding histological imaging studies, the detection of different diseases has been addressed in this thesis, including skin cancer (spitzoid melanoma and spindle cell neoplasms) and ulcerative colitis. In this context, the multiple instance learning (MIL) paradigm has been employed as the baseline in all developed frameworks to deal with the large size of histological images. Furthermore, diverse learning methodologies have been implemented, tailored to the specific problems being addressed. For the detection of spitzoid melanoma, an inductive learning approach has been used, which requires a smaller volume of annotations. To address the diagnosis of ulcerative colitis, which involves the identification of neutrophils as biomarkers, a constraint learning approach has been utilized. With this method, the annotation cost has been significantly reduced while achieving substantial improvements in the obtained results. Finally, considering the limited number of experts in the field of spindle cell neoplasms, a novel annotation protocol for non-experts has been designed and validated. In this context, deep learning models that work with the uncertainty associated with such annotations have been developed. In conclusion, this thesis has developed cutting-edge techniques to address the medical sector's challenge of precise data annotation. Using weakly annotated or non-expert annotated data, novel paradigms and methodologies based on deep learning have been proposed to tackle disease detection and diagnosis in omics data and histological images. These innovations can improve effectiveness and automation in early disease detection and monitoring. / The work of Rocío del Amor to carry out this research and to elaborate this dissertation has been supported by the Spanish Ministry of Universities under the FPU grant FPU20/05263. / Amor Del Amor, MRD. (2023). Deep Learning Strategies for Overcoming Diagnosis Challenges with Limited Annotations [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/200227 / Compendio
74

Understanding Isoform Expression and Alternative Splicing Biology through Single-Cell RNAseq

Arzalluz Luque, Ángeles 27 April 2024 (has links)
[ES] La introducción de la secuenciación de ARN a nivel de célula única (scRNA-seq) en el ámbito de la transcriptómica ha redefinido nuestro entendimiento de la diversidad celular, arrojando luz sobre los mecanismos subyacentes a la heterogeneidad tisular. No obstante, al inicio de esta tesis, las limitaciones de a esta tecnología obstaculizaban su aplicación en el estudio de procesos complejos, entre ellos el splicing alternativo. A pesar de ello, los patrones de splicing a nivel celular planteaban incógnitas que esta tecnología tenía el potencial de resolver: ¿es posible observar, a nivel celular, la misma diversidad de isoformas que se detecta mediante RNA-seq a nivel de tejido? ¿Qué función desempeñan las isoformas alternativas en la constitución de la identidad celular? El objetivo de esta tesis es desbloquear el potencial del scRNA-seq para el análisis de isoformas, abordando sus dificultades técnicas y analíticas mediante el desarrollo de nuevas metodologías computacionales. Para lograrlo, se trazó una hoja de ruta con tres objetivos. Primero, se establecieron cuatro requisitos para el estudio de las isoformas mediante scRNA-seq, llevando a cabo una revisión de la literatura existente para evaluar su cumplimiento. Tras completar este marco con simulaciones computacionales, se identificaron las debilidades y fortalezas de los métodos de scRNA-seq y las herramientas computacionales disponibles. Durante la segunda etapa de la investigación, estos conocimientos se utilizaron para diseñar un protocolo óptimo de procesamiento de datos de scRNA-seq. En concreto, se integraron datos de lecturas largas a nivel de tejido con datos de scRNA-seq para garantizar una identificación adecuada de las isoformas así como su cuantificación a nivel celular. Este proceso permitió ampliar las estrategias computacionales disponibles para la reconstrucción de transcriptomas a partir de lecturas largas, mejoras que fueron implementadas en SQANTI3, software de referencia en transcriptómica. Por último, los datos procesados se utilizaron para desarrollar un nuevo método de análisis de co-expresión de isoformas a fin de desentrañar redes de regulación del splicing alternativo implicadas en la constitución de la identidad celular. Dada la elevada variabilidad de los datos de scRNA-seq, este método se basa en la utilización de una estrategia de correlación basada en percentiles que atenúa el ruido técnico y permite la identificación de grupos de isoformas co-expresadas. Una vez configurada la red de co-expresión, se introdujo una nueva estrategia de análisis para la detección de patrones de co-utilización de isoformas que suceden de forma independiente a la expresión a nivel de gen, denominada co-Differential Isoform Usage. Este enfoque facilita la identificación de una capa de regulación de la identidad celular atribuible únicamente a mecanismos post-transcripcionales. Para una interpretación biológica más profunda, se aplicó una estrategia de anotación computacional de motivos y dominios funcionales en las isoformas definidas con lecturas largas, revelando las propiedades biológicas de las isoformas involucradas en la red de co-expresión. Estas investigaciones culminan en el lanzamiento de acorde, un paquete de R que encapsula las diferentes metodologías desarrolladas en esta tesis, potenciando la reproducibilidad de sus resultados y proporcionando una nueva herramienta para explorar la biología de las isoformas alternativas a nivel de célula única. En resumen, esta tesis describe una serie de esfuerzos destinados a desbloquear el potencial de los datos de scRNA-seq para avanzar en la comprensión del splicing alternativo. Desde un contexto de escasez de herramientas y conocimiento previo, se han desarrollado soluciones de análisis innovadoras que permiten la aplicación de scRNA-seq al estudio de las isoformas alternativas, proporcionando recursos innovadores para profundizar en la regulación post-transcripcional y la función celular. / [CA] La introducció de la seqüenciació d'ARN a escala de cèl·lula única (scRNA-seq) en l'àmbit de la transcriptòmica ha redefinit el nostre enteniment de la diversitat cel·lular, projectant llum sobre els mecanismes subjacents a l'heterogeneïtat tissular. Malgrat les limitacions inicials d'aquesta tecnologia, especialment en el context de processos complexos com l'splicing alternatiu, els patrons d'splicing a escala cel·lular plantejaven incògnites amb potencial de resolució: és possible observar, a escala cel·lular, la mateixa diversitat d'isoformes que es detecta mitjançant RNA-seq en teixits? Quina funció tenen les isoformes alternatives en la constitució de la identitat cel·lular? L'objectiu d'aquesta tesi és desbloquejar el potencial del scRNA-seq per a l'anàlisi d'isoformes alternatives, abordant les seues dificultats tècniques i analítiques amb noves metodologies computacionals. Per a això, es va traçar una ruta amb tres objectius. Primerament, es van establir quatre requisits per a l'estudi de les isoformes mitjançant scRNA-seq, amb una revisió de la literatura existent per avaluar-ne el compliment. Després de completar aquest marc amb simulacions computacionals, es van identificar les debilitats i fortaleses dels mètodes de scRNA-seq i de les eines computacionals disponibles. Durant la segona etapa de la investigació, aquests coneixements es van utilitzar per dissenyar un protocol òptim de processament de dades de scRNA-seq. En concret, es van integrar dades de lectures llargues a escala de teixit amb dades de scRNA-seq per a garantir una identificació adequada de les isoformes així com la seua quantificació a escala cel·lular. Aquest procés va permetre ampliar les estratègies computacionals disponibles per a la reconstrucció de transcriptomes a partir de lectures llargues, millores que van ser implementades en SQANTI3, un programari de referència en transcriptòmica. Finalment, les dades processades es van fer servir per a desenvolupar un nou mètode d'anàlisi de coexpressió d'isoformes amb l'objectiu de desentranyar xarxes de regulació de l'splicing alternatiu implicades en la constitució de la identitat cel·lular. Donada l'elevada variabilitat de les dades de scRNA-seq, aquest mètode es basa en la utilització d'una estratègia de correlació basada en percentils que minimitza el soroll tècnic i permet la identificació de grups d'isoformes coexpressades. Un cop configurada la xarxa de coexpressió, es va introduir una nova estratègia d'anàlisi per a la detecció de patrons de co-utilització d'isoformes que succeeixen de forma independent a l'expressió del seu gen, denominada co-Differential Isoform Usage. Aquest enfocament facilita la identificació d'una capa de regulació de la identitat cel·lular atribuïble únicament a mecanismes post-transcripcionals. Per a una interpretació biològica més profunda, es va aplicar una estratègia d'anotació computacional de motius i dominis funcionals en les isoformes definides amb lectures llargues, revelant les propietats biològiques de les isoformes involucrades en la xarxa de coexpressió. Aquestes investigacions culminen en el llançament d'acorde, un paquet de R que encapsula les diferents metodologies desenvolupades en aquesta tesi, potenciant la reproducibilitat dels seus resultats i proporcionant una nova eina per a explorar la biologia de les isoformes alternatives a escala de cèl·lula única. En resum, aquesta tesi descriu una sèrie d'esforços destinats a desbloquejar el potencial de les dades de scRNA-seq per a avançar en la comprensió de l'splicing alternatiu. Des d'un context de manca d'eines i coneixement previ, s'han desenvolupat solucions d'anàlisi innovadores que permeten l'aplicació de scRNA-seq a l'estudi de les isoformes alternatives, proporcionant recursos innovadors per a aprofundir en la regulació post-transcripcional i la funció cel·lular. / [EN] In the world of transcriptomics, the emergence of single-cell RNA sequencing (scRNA-seq) ignited a revolution in our understanding of cellular diversity, unraveling novel mechanisms in tissue heterogeneity, development and disease. However, when this thesis began, using scRNA-seq to understand Alternative Splicing (AS) was a challenging frontier due the inherent limitations of the technology. In spite of this research gap, pertinent questions persisted regarding cell-level AS patterns, particularly concerning the recapitulation of isoform diversity observed in bulk RNA-seq data at the cellular level and the roles played by cell and cell type-specific isoforms. The work conducted in the present thesis aims to harness the potential of scRNA-seq for alternative isoform analysis, outlining technical and analytical challenges and designing computational methods to overcome them. To achieve this, we established a roadmap with three main aims. First, we set requirements for studying isoforms using scRNA-seq and conducted an extensive review of existing research, interrogating whether these requirements were met. Combining this acquired knowledge with several computational simulations allowed us to delineate the strengths and pitfalls of available data generation methods and computational tools. During the second research stage, this insight was used to design a suitable data processing pipeline, in which we jointly employed bulk long-read and short-read scRNA-seq sequenced from full-length cDNAs to ensure adequate isoform reconstruction as well as sensitive cell-level isoform quantification. Additionally, we refined available transcriptome curation strategies, introducing them as innovative modules in the transcriptome quality control software SQANTI3. Lastly, we harnessed single-cell isoform expression data and the rich biological diversity inherent in scRNA-seq, encompassing various cell types, in the design of a novel isoform co-expression analysis method. Percentile correlations effectively mitigated single-cell noise, unveiling clusters of co-expressed isoforms and exposing a layer of regulation in cellular identity that operated independently of gene expression. We additionally introduced co-Differential Isoform Usage (coDIU) analysis, enhancing our ability to interpret isoform cluster networks. This endeavour, combined with the computational annotation of functional sites and domains in the long read-defined isoform models, unearthed a distinctive functional signature in coDIU genes. This research effort materialized in the release of acorde, an R package that encapsulates all analyses functionalities developed throughout this thesis, providing a reproducible means for the scientific community to further explore the depths of alternative isoform biology within single-cell transcriptomics. This thesis describes a complex journey aimed at unlocking the potential of scRNA-seq data for investigating AS and isoforms: from a landscape marked by the scarcity of tools and guidelines, towards the development of novel analysis solutions and the acquisition of valuable biological insight. In a swiftly evolving field, our methodological contributions constitute a significant leap forward in the application of scRNA-seq to the study of alternative isoform expression, providing innovative resources for delving deeper into the intricacies of post-transcriptional regulation and cellular function through the lens of single-cell transcriptomics. / The research project was funded by the BIO2015-71658 and BES-2016-076994 grants awarded by the Spanish Ministry of Science and Innovation / Arzalluz Luque, Á. (2024). Understanding Isoform Expression and Alternative Splicing Biology through Single-Cell RNAseq [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203888
75

Estudio del cuestionario de evaluación del profesorado de la UPV mediante opinión de los estudiantes. Tratamiento estadístico

Martínez Gómez, Mónica 06 May 2008 (has links)
La mejora de la calidad de las instituciones universitarias constituye el reto más importante en los próximos años para las universidades y el instrumento potencial para ello lo constituye la evaluación institucional, en general, y la evaluación de la actividad docente, en especial. El cuestionario de opinión de los estudiantes, es el instrumento de evaluación de la actividad docente más generalizado en las universidades españolas. El objetivo general del trabajo es desarrollar una metodología estadística adecuada para extraer, analizar e interpretar la información contenida en el Cuestionario de Evaluación Docente mediante Opinión de los Alumnos (CEDA) de la UPV, con la finalidad de optimizar su utilización práctica. El estudio se centra en la aplicación de distintas técnicas multivariantes a las puntuaciones medias e individuales obtenidas en los ítems del cuestionario y a diversas características descriptivas referentes al profesor o asignatura. Con la utilización conjunta de las técnicas propuestas, se pretende optimizar el uso del CEDA como herramienta de medida e indicador de calidad de la enseñanza en la universidad, para introducir actuaciones de mejora continua en los procesos educativos de la UPV. DESCRIPTORES Análisis multivariantes; Análisis de encuestas; Calidad de la docencia universitaria; Cuestionario de Evaluación Docente. / Martínez Gómez, M. (2005). Estudio del cuestionario de evaluación del profesorado de la UPV mediante opinión de los estudiantes. Tratamiento estadístico [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1891
76

La adopción de tecnología en los invernaderos hortícolas mediterráneos

García Martínez, María del Carmen 25 November 2009 (has links)
En la horticultura intensiva española la mayor parte de las exportaciones procede de los cultivos de invernadero, localizados en Almería, Murcia y Alicante, donde se ha centrado el presente estudio. Actualmente la posición competitiva no presenta amenazas muy graves pero tampoco muestra una etapa creciente. Exportaciones y precios soportan la competencia de otros países del área mediterránea, con los cuales España debe competir en capital y en tecnología elevando el nivel de equipamiento de los invernaderos. Ante unas exigencias de reestructuración de las instalaciones actuales, no aplazables, se plantea la presente tesis con el fin de conocer el estado actual de la tecnología y su evolución y, además, las características de las explotaciones y la actitud de sus titulares respecto a las innovaciones necesarias. Las fuentes de información se han basado en una toma de precios en origen del tomate y pimiento, como principales productos hortícolas, y en una encuesta, realizada en 242 explotaciones, mediante muestreo proporcional estratificado, en las zonas de El Ejido (Almería), Valle del Guadalentín y Campo de Cartagena (Murcia) y Sur de Alicante. El análisis de la información tuvo una primera parte dedicada a los precios, con el cálculo de la tendencia y la estacionalidad y la aplicación de modelos ARIMA. La finalidad ha sido conocer la evolución de las rentas de los productores, efectuar predicciones, y establecer una relación entre los precios y la tecnología adoptable. El tratamiento de los datos de la encuesta con sus resultados comprende la mayor parte del contenido del trabajo. Se aplicó el análisis estadístico univariante a las características estructurales de explotaciones e invernaderos y el bivariante, con contraste de independencia, para determinar relaciones de interés entre los factores que influyen en los procesos de innovación. / García Martínez, MDC. (2009). La adopción de tecnología en los invernaderos hortícolas mediterráneos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6472
77

On the effective deployment of current machine translation technology

González Rubio, Jesús 03 June 2014 (has links)
Machine translation is a fundamental technology that is gaining more importance each day in our multilingual society. Companies and particulars are turning their attention to machine translation since it dramatically cuts down their expenses on translation and interpreting. However, the output of current machine translation systems is still far from the quality of translations generated by human experts. The overall goal of this thesis is to narrow down this quality gap by developing new methodologies and tools that improve the broader and more efficient deployment of machine translation technology. We start by proposing a new technique to improve the quality of the translations generated by fully-automatic machine translation systems. The key insight of our approach is that different translation systems, implementing different approaches and technologies, can exhibit different strengths and limitations. Therefore, a proper combination of the outputs of such different systems has the potential to produce translations of improved quality. We present minimum Bayes¿ risk system combination, an automatic approach that detects the best parts of the candidate translations and combines them to generate a consensus translation that is optimal with respect to a particular performance metric. We thoroughly describe the formalization of our approach as a weighted ensemble of probability distributions and provide efficient algorithms to obtain the optimal consensus translation according to the widespread BLEU score. Empirical results show that the proposed approach is indeed able to generate statistically better translations than the provided candidates. Compared to other state-of-the-art systems combination methods, our approach reports similar performance not requiring any additional data but the candidate translations. Then, we focus our attention on how to improve the utility of automatic translations for the end-user of the system. Since automatic translations are not perfect, a desirable feature of machine translation systems is the ability to predict at run-time the quality of the generated translations. Quality estimation is usually addressed as a regression problem where a quality score is predicted from a set of features that represents the translation. However, although the concept of translation quality is intuitively clear, there is no consensus on which are the features that actually account for it. As a consequence, quality estimation systems for machine translation have to utilize a large number of weak features to predict translation quality. This involves several learning problems related to feature collinearity and ambiguity, and due to the ¿curse¿ of dimensionality. We address these challenges by adopting a two-step training methodology. First, a dimensionality reduction method computes, from the original features, the reduced set of features that better explains translation quality. Then, a prediction model is built from this reduced set to finally predict the quality score. We study various reduction methods previously used in the literature and propose two new ones based on statistical multivariate analysis techniques. More specifically, the proposed dimensionality reduction methods are based on partial least squares regression. The results of a thorough experimentation show that the quality estimation systems estimated following the proposed two-step methodology obtain better prediction accuracy that systems estimated using all the original features. Moreover, one of the proposed dimensionality reduction methods obtained the best prediction accuracy with only a fraction of the original features. This feature reduction ratio is important because it implies a dramatic reduction of the operating times of the quality estimation system. An alternative use of current machine translation systems is to embed them within an interactive editing environment where the system and a human expert collaborate to generate error-free translations. This interactive machine translation approach have shown to reduce supervision effort of the user in comparison to the conventional decoupled post-edition approach. However, interactive machine translation considers the translation system as a passive agent in the interaction process. In other words, the system only suggests translations to the user, who then makes the necessary supervision decisions. As a result, the user is bound to exhaustively supervise every suggested translation. This passive approach ensures error-free translations but it also demands a large amount of supervision effort from the user. Finally, we study different techniques to improve the productivity of current interactive machine translation systems. Specifically, we focus on the development of alternative approaches where the system becomes an active agent in the interaction process. We propose two different active approaches. On the one hand, we describe an active interaction approach where the system informs the user about the reliability of the suggested translations. The hope is that this information may help the user to locate translation errors thus improving the overall translation productivity. We propose different scores to measure translation reliability at the word and sentence levels and study the influence of such information in the productivity of an interactive machine translation system. Empirical results show that the proposed active interaction protocol is able to achieve a large reduction in supervision effort while still generating translations of very high quality. On the other hand, we study an active learning framework for interactive machine translation. In this case, the system is not only able to inform the user of which suggested translations should be supervised, but it is also able to learn from the user-supervised translations to improve its future suggestions. We develop a value-of-information criterion to select which automatic translations undergo user supervision. However, given its high computational complexity, in practice we study different selection strategies that approximate this optimal criterion. Results of a large scale experimentation show that the proposed active learning framework is able to obtain better compromises between the quality of the generated translations and the human effort required to obtain them. Moreover, in comparison to a conventional interactive machine translation system, our proposal obtained translations of twice the quality with the same supervision effort. / González Rubio, J. (2014). On the effective deployment of current machine translation technology [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37888
78

Gestión de la operación, vigilancia y mantenimiento de equipos de seguridad de centrales nucleares a corto y largo plazo

Martón Lluch, Isabel 09 December 2015 (has links)
[EN] In the last years, several studies have been developed in order to guarantee safety operation of Nuclear Power Plants (NPP), for both, the design plant life and for the Long Term Operation (LTO). In those situations, NPP must face the Periodic Safety Review (PSR). An important part of PRS involves the evaluation of risk impact of Structures, Systems and Components (SSC) ageing and how current asset management programs, e.g. maintenance and testing programs, are successful to achieve the objective of allowing a safe operation. In order to perform this evaluation, it is necessary to extend the current Probabilistic Safety Assessment (PSA) models to take into account, not only equipment ageing, but also maintenance and testing policies. This Ph Dissertation aims to help in NPP safety evaluation in the framework of PSR in both, design life and long-term operation. In this context, two main objectives are proposed. The first one is based on the proposal and application of risk-informed decision making methodology to evaluate the impact of changes to licensing bases, particularly in the ETF, using PSA models and considering aleatory uncertainties. The second is based on the adaptation and development of SSC reliability and availability models to consider not only the effect of aging, but also the effect of components management policies, in particular the testing and maintenance. Finally, these models have been joined to APS in order to obtain a new and extended APS (APSE). Some application cases, for both, risk-informed decision making on changes of licensing bases and for the use of the new APSA in the process of decision making, are provided in order to assess the feasibility and applicability of the new methodologies proposed The work of this thesis is part of the research supported by the Ministry of Economy and Competitiveness in the project ENE2013-45540-R, "Development of Advanced Surveillance Requirements with a focus on safety and competitiveness of Nuclear Power Plants operation in the long term", and in the Doctoral Fellow ENE2010-17449. / [ES] En los últimos años se han desarrollado diversos estudios enfocados a garantizar la operación segura de las centrales nucleares (CCNN), tanto en la operación dentro de la vida de diseño como en la operación a largo plazo. En ambos casos, las centrales deben de afrontar una Revisión Periódica de Seguridad (RPS), la cual, involucra, entre otras tareas, la evaluación del impacto en el riesgo del envejecimiento de Estructuras, Sistemas y Componentes (ESC) y del papel de los programas de gestión de activos, tales como los programas de vigilancia y de mantenimiento de la central. Para llevar a cabo esta evaluación, urge la necesidad de extender los modelos actuales del Análisis Probabilista de Seguridad (APS) para que tenga en cuenta de forma explícita no sólo el efecto del envejecimiento sino también el efecto de las políticas de gestión de componentes activos, en particular, las pruebas y mantenimientos. La presente tesis doctoral pretende servir de ayuda en las evaluaciones de la seguridad de las CCNN, y en el contexto de las RPS, tanto en la operación dentro de la vida de diseño como en la operación a largo plazo. En este contexto se plantean dos objetivos principales. El primero, se basa en la propuesta y aplicación de una metodología de toma de decisiones basada en la utilización de los modelos y datos del APS para llevar a cabo la evaluación del impacto en el riesgo de cambios en las bases de licencia, concretamente en las ETF de las CCNN, en presencia de incertidumbres. El segundo, se basa en la adaptación y desarrollo de los modelos de fiabilidad y disponibilidad convencionales de ESC para que consideren de forma explícita no sólo el efecto del envejecimiento, sino también el efecto de las políticas de gestión de componentes activos, en particular de las pruebas y mantenimiento. Finalmente, estos modelos se han incorporado al APS con el objetivo de obtener un nuevo APS Extendido (APSE). Tanto para la toma de decisiones informada en el riesgo para cambios en las bases de licencia, cómo para la toma de decisiones utilizando el nuevo modelo extendido, APSE, se aportan casos de aplicación que demuestran la viabilidad y aplicabilidad de los mismos. El trabajo realizado en la presente tesis doctoral se enmarca dentro de la línea de investigación financiada por el Ministerio de Economía y Competitividad en el proyecto ENE2013-45540-R, "Desarrollo de Requisitos de vigilancia avanzados enfocados a la seguridad y competitividad de la operación a largo plazo de centrales nucleares" y en la beca de Formación de Personal Investigador (FPI) ENE2010-17449. / [CA] En els últims anys s'han desenvolupat diversos estudis enfocats a garantir l'operació segura de les centrals nuclears (CCNN), tant en l'operació dins de la vida de disseny com en l'operació a llarg termini. En ambdos casos, les centrals han d'afrontar una Revisió Periòdica de Seguretat (RPS), la qual, involucra, entre altres tasques, l'avaluació de l'impacte en el risc de l'envelliment d'Estructures, Sistemes i components (ESC) i del paper dels programes de gestió d'actius, com els programes de vigilància i de manteniment de la central. Per dur a terme aquesta avaluació, urgeix la necessitat d'estendre els models actuals de l'Anàlisi Probabilista de Seguretat (APS) perquè tinga en compte de manera explícita no sols l'efecte de l'envelliment sinó també l'efecte de les polítiques de gestió de components actius, en particular, les proves i manteniments. La present tesi doctoral pretén servir d'ajuda en les avaluacions de la seguretat de les CCNN, i en el context de les RPS, tant en l'operació dins de la vida de disseny com en l'operació a llarg termini. En aquest context es plantegen dos objectius principals. El primer, es basa en la proposta i aplicació d'una metodologia de presa de decisions basada en la utilització dels models i dades de l'APS per a dur a terme l'avaluació de l'impacte en el risc de canvis en les bases de llicència, concretament en les ETF de les CCNN, en presència d'incerteses. El segon, es basa en l'adaptació i desenvolupament dels models de fiabilitat i disponibilitat convencionals d'estructures, sistemes i components perquè considerin de forma explícita no només l'efecte de l'envelliment, sinó també l'efecte de les polítiques de gestió de components actius, en particular de les proves i manteniment. Finalment, aquests models s'han incorporat al APS amb l'objectiu d'obtenir un nou APS Estès (APSE). Tant per a la presa de decisions informada en el risc per canvis en les bases de llicència com per a la presa de decisions utilitzant el nou model estès, APSE, s'aporten casos d'aplicació que demostren la viabilitat i aplicabilitat dels mateixos. El treball realitzat en la present tesi doctoral s'emmarca dins de la línia d'investigació finançada pel Ministeri d'Economia i Competitivitat en el projecte ENE2013-45540-R, "Desarrollo de Requisitos de vigilancia avanzados enfocados a la seguridad y competitividad de la operación a largo plazo de centrales nucleares" i en la beca de Formació de Personal Investigador (FPI) ENE2010-17449. / Martón Lluch, I. (2015). Gestión de la operación, vigilancia y mantenimiento de equipos de seguridad de centrales nucleares a corto y largo plazo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58615
79

Propuesta de un nuevo procedimiento basado en la norma ISO 9001 para la gestión conjunta de la norma ISO 31000, la filosofía Kaizen y la herramienta Lean Manufacturing en pymes industriales de la Comunidad Valenciana.

Palacios Guillem, María 23 December 2021 (has links)
[ES] Debido a la globalización y al mercado competitivo actual, a la gran variedad de productos y servicios, a los clientes cada vez más exigentes y que demandan productos de alta calidad al mejor precio y a que la tecnología está continuamente mejorando; la mayoría de las pymes industriales decidieron implementar en sus instalaciones normas y sistemas de gestión con la intención de perfeccionar sus procesos y mejorar su nivel de competitividad y así asegurar su permanencia en su sector del mercado. Esto llevó a que una gran cantidad de empresas implementaran sistemas de gestión en sus instalaciones. Lo que a su vez provocó la necesidad y urgencia de crear nuevos sistemas de gestión relacionados con diferentes aspectos que pudieran afectar al desempeño organizacional y, por tanto, a la competitividad de la empresa. Todo esto se traduce en una gran cantidad de empresas que poseen en sus instalaciones varios sistemas de gestión independientes, con los que gestionar aspectos tan diversos como la calidad, el medio ambiente o la salud y la seguridad de sus trabajadores. Sin embargo, existe la posibilidad de administrar varios sistemas de gestión como si fueran uno solo, mediante los sistemas integrados de gestión. Con estos, las empresas pueden ayudarse de las sinergias que presentan en común para obtener una gestión más eficiente y sencilla que si se administraran por separado cada sistema de gestión. No obstante, al llevar a cabo una revisión literaria completa, se apreció que ningún sistema integrado de gestión está relacionado conjuntamente con los aspectos de calidad, mejora continua, riesgos y que ayude a eliminar aquellas actividades que no aportan valor añadido a la empresa. Es por este motivo por lo que el principal objetivo de la presente Tesis Doctoral es crear una metodología que integre las normas ISO 9001:2015 e ISO 31000:2009, Kaizen y Lean Manufacturing. Con esta metodología se intenta ofrecer ayuda a las empresas para mejorar la calidad de sus productos, afrontar los riesgos que pueden encontrarse diariamente y, al mismo tiempo, mejorar continuamente y prescindir de aquellas herramientas y actividades que no generan valor para la empresa. Para poder desarrollar dicha metodología de integración, una vez terminada la revisión literaria, se realizó un análisis empírico univariante y bivariante en el que se empleó una muestra de treinta pymes de la Comunidad Valenciana y una muestra de nueve empresas españolas ubicadas en la República Checa con dos o más sistemas de gestión implementados. De este estudio se concluye que la mayoría de las pymes examinadas han integrado sus sistemas de gestión examinando los elementos comunes de los sistemas de gestión que querían integrar y mediante su propio mapa de procesos. Esta integración tardó entre uno y dos años y en el que afrontaron barreras como "Falta de recursos humanos", "Falta de colaboración entre los departamentos" y "Empleados poco motivados". Gracias al sistema integrado de gestión, las empresas consiguieron mejorar su imagen externa, perfeccionar la calidad de sus productos y aumentar su ventaja competitiva en el mercado y su eficiencia organizacional. También se observó que la totalidad de las pymes valencianas de la muestra, antes de empezar con el proceso de integración y en un plan de integración, determinaron "los Objetivos de calidad y la planificación para lograrlos", la "Gestión de la Infraestructura" y el "Control de las no-conformidades". Mientras que las pymes españolas ubicadas en la República Checa crearon un plan de integración en el que determinaron el "Control de las no conformidades", la "Información documentada (documentación, registro)", los "Roles, responsabilidades, autoridades" de cada trabajador, la "Revisión del sistema" y las "Acciones preventivas y correctivas". / [CAT] A causa de la globalització i al mercat competitiu actual, a la gran varietat de productes i serveis, als clients cada vegada més exigents i que demanen productes d'alta qualitat al millor preu i a que la tecnologia està contínuament millorant; la majoria de les pimes industrials van decidir implementar en les seves instal·lacions normes i sistemes de gestió amb la intenció de perfeccionar els seus processos i millorar el seu nivell de competitivitat, per així assegurar la seva permanència en el seu sector del mercat. Això va fer que una gran quantitat d'empreses implementaren sistemes de gestió en les seves instal·lacions. El que al seu torn va provocar la necessitat i urgència de crear nous sistemes de gestió relacionats amb diferents aspectes que poguessen afectar a l'acompliment organitzacional i, per tant, a la competitivitat de l'empresa. Tot això es tradueix en una gran quantitat d'empreses que posseeixen diversos sistemes de gestió independents, amb els quals gestionar aspectes tan diversos com la qualitat, el medi ambient o la salut i la seguretat dels seus treballadors. No obstant això, hi ha la possibilitat d'administrar diversos sistemes de gestió com si foren un, mitjançant els sistemes integrats de gestió. Amb aquests, les empreses poden ajudar-se de les sinergies que presenten en comú per obtenir una gestió més eficient i senzilla que si s'administraren per separat cada sistema de gestió. No obstant això, en dur a terme una revisió literària completa, es va apreciar que cap sistema integrat de gestió està relacionat conjuntament amb els aspectes de qualitat, millora contínua, riscos i que ajude a eliminar aquelles activitats que no aporten valor afegit a l'empresa. És per aquest motiu pel que el principal objectiu de la present Tesi Doctoral és crear una metodologia que integre les normes ISO 9001: 2015 i ISO 31000: 2009, la filosofia Kaizen i l'eina Lean Manufacturing. Amb aquesta metodologia es pretén ajudar a les empreses a millorar la qualitat dels seus productes, afrontar els riscos que poden trobar-se diàriament i, a la vegada, millorar contínuament i prescindir d'aquelles eines i activitats que no generen valor per a l'empresa. Per poder desenvolupar aquesta metodologia d'integració, una vegada acabada la revisió literària, s'ha realitzat una anàlisi empírica univariant i bivariant en la que s'utilitza una mostra de trenta pimes de la Comunitat Valenciana i una mostra de nou pimes espanyoles situades a la República Txeca amb dos o més sistemes de gestió implementats. D'aquests anàlisis es conclou que la majoria de les pimes estudiades han integrat els seus sistemes de gestió analitzant els elements comuns dels sistemes de gestió que volien integrar i mitjançant el seu propi mapa de processos. Aquest procés d'integració va durar entre un i dos anys i en el que van afrontar barreres com "Falta de recursos humans", "Falta de col·laboració entre els departaments" i "Empleats poc motivats". Però gràcies al sistema integrat de gestió, les empreses van aconseguir millorar la seua imatge externa, perfeccionar la qualitat dels seus productes i augmentar el seu avantatge competitiu en el mercat i la seua eficiència organitzacional. També s'ha observat que, abans de començar amb el procés d'integració i en un pla d'integració, la majoria de les pimes valencianes de la mostra van determinar "els objectius de qualitat i la planificació per a aconseguir-los", la "Gestió de la Infraestructura" i el "Control de les no-conformitats". Mentre que les pimes espanyoles situades a la República Txeca van crear un pla d'integració en el que van determinar el "Control de les no conformitats", la "Informació documentada (documentació, registre)", els "Rols, responsabilitats, autoritats" de cada treballador, la "Revisió del sistema" i les "Accions preventives i correctives". / [EN] Due to globalisation and the current competitive market, the wide variety of products and services, customers are increasingly demanding and ask for high-quality products at the best price and technology is continuously improving; most industrial SMEs decided to implement management standards and systems in their facilities to improve processes and their level of competitiveness, to ensure their permanence in their market sector. This led many companies to implement management systems in their facilities. Which in turn, caused the need and urgency to create new management systems related to different aspects that could affect organisational performance and, therefore, the company competitiveness. All this means that many companies have several independent management systems to manage aspects as diverse as quality, the environment, or the health and safety of its workers. However, there is a possibility of running several management systems as if they were only one, through integrated management systems. With them, companies can benefit from the common synergies presented by the systems to obtain more efficient and simple management than if they ran each management system separately. Nevertheless, after conducting a complete literary review, it was found that no integrated management system is related to aspects of quality, continuous improvement, risks and, simultaneously, helps eliminate those activities that do not add value to the company. This reason motivates that the principal purpose of this essay is to design a method that integrates the ISO 9001:2015 standard, the Lean Manufacturing tool, the Kaizen philosophy of continuous improvement, and the ISO 31000:2009 standard. This methodology can help companies to improve the quality of their products and face the risks that can be found daily and, at the same time, continuously improve and disregard those tools and activities that do not generate value for the company. To develop the integration methodology after the literary review is conducted did a univariate and bivariate empirical analysis was done using a sample of thirty SMEs from the Valencian Community and a sample of nine Spanish companies located in the Czech Republic, in all cases implementing two or more management systems. The conclusion from this study is that most of the SMEs in the sample have integrated their management systems analysing the common elements of the management systems that they wanted to integrate and through their own process map. This process of integration lasted between one and two years and in which they encountered barriers such as "Lack of human resources", "Lack of collaboration between the departments" and "Employees with little motivation". Thanks to the integrated management system, the companies managed to improve their external image, the quality of their products and increase their competitive advantage in the market, and their organizational efficiency. It was also observed that, before starting the process of integration and in an integration plan, most of the Valencian SMEs from the sample determined "the objectives of quality and the planning to achieve them", "Infrastructure Management" and "Control of non-conformities". While the Spanish SMEs located in the Czech Republic created an integration plan in which they determined the "Control of non-conformities", the "Documented information (documentation, registration)", the "Roles, responsibilities, authorities" of each worker, the "System Review" and the "Preventive and Corrective Actions". / Palacios Guillem, M. (2021). Propuesta de un nuevo procedimiento basado en la norma ISO 9001 para la gestión conjunta de la norma ISO 31000, la filosofía Kaizen y la herramienta Lean Manufacturing en pymes industriales de la Comunidad Valenciana [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/178979
80

Use of Statistical Methods for the Analysis of Educational Data: the Role of ICTs in the Educational Context

Gómez Fernández, Nerea María 21 February 2022 (has links)
[ES] En las últimas décadas, la intensificación del uso de las tecnologías de la información y la comunicación (TIC) ha supuesto grandes cambios en nuestra forma de vida. En este contexto de intensa y creciente digitalización, esta tesis doctoral estudia el papel que juegan las TIC como un factor determinante del rendimiento académico de los estudiantes de educación secundaria, así como los factores que propician el uso de las TIC en el aula por parte de los docentes. La tesis se compone de tres capítulos: (1) en el primero de ellos, se analiza la relación entre distintos tipos de uso de las TIC en el contexto social y educativo y el rendimiento académico; (2) en el capítulo dos, se centra la atención en el impacto que tiene sobre el rendimiento académico el uso de las TIC en el aula para realizar tareas y ejercicios; (3) y en el capítulo tres se analizan los factores que determinan la frecuencia de uso de las TIC en el aula por parte de los docentes. Para realizar estos análisis, se estudian datos procedentes de evaluaciones educativas internacionales y nacionales mediante la aplicación de distintos métodos estadísticos: modelos multinivel, método de variables instrumentales, método de emparejamiento por puntaje de propensión, regresiones cuantílicas y técnica de imputación multivariante por ecuaciones encadenadas. Los resultados alcanzados en las distintas investigaciones proporcionan evidencia empírica novedosa que permite elaborar recomendaciones en materia de política educativa, así como abrir futuras líneas de investigación que permitirán complementar los resultados de esta tesis doctoral. / [CA] En les últimes dècades, la intensificació de l'ús de les tecnologies de la informació i la comunicació (TIC) ha suposat grans canvis en la nostra forma de vida. En aquest context d'intensa i creixent digitalització, aquesta tesi doctoral estudia el paper que juguen les TIC com un factor determinant del rendiment acadèmic dels estudiants d'educació secundària, així com els factors que propicien l'ús de les TIC a l'aula per part dels docents. La tesi es compon de tres capítols: (1) en el primer d'ells, s'analitza la relació entre diferents tipus d'ús de les TIC en el context social i educatiu i el rendiment acadèmic; (2) en el capítol dos, se centra l'atenció en l'impacte que té sobre el rendiment acadèmic l'ús de les TIC a l'aula per a fer tasques i exercicis; (3) i en el capítol tres s'analitzen els factors que determinen la freqüència d'ús de les TIC a l'aula per part dels docents. Per a realitzar aquestes anàlisis, s'estudien dades procedents d'avaluacions educatives internacionals i nacionals mitjançant l'aplicació de diferents mètodes estadístics: models multinivell, mètode de variables instrumentals, mètode d'aparellament per puntuació de propensió, regressió quantílica i tècnica d'imputació multivariant per equacions encadenades. Els resultats aconseguits en les diferents investigacions proporcionen evidència empírica nova que permet elaborar recomanacions en matèria de política educativa, així com obrir futures línies d'investigació que permetran complementar els resultats d'aquesta tesi doctoral. / [EN] In recent decades, the intensification of the use of information and communication technologies (ICT) has brought about major changes in our way of life. In this context of intense and increasing digitalization, this doctoral thesis studies the role of ICT as a determinant of the academic performance of secondary school students, as well as the factors that favour the use of ICT in the classroom by teachers. The thesis consists of three chapters: (1) in the first one, the relationship between different types of ICT use in the social and educational context and academic performance is analysed; (2) in chapter two, attention is focused on the impact on academic performance of the use of ICT in the classroom to carry out tasks and exercises; (3) and in chapter three, the factors that determine the frequency of ICT use in the classroom by teachers are analysed. In order to carry out these analyses, data from international and national educational assessments are studied by applying different statistical methods: multilevel models, instrumental variables method, propensity score matching method, quantile regressions and multivariate imputation technique by chained equations. The results achieved in the different investigations provide novel empirical evidence that allows us to elaborate recommendations for educational policy, as well as to open future lines of research that will allow us to complement the results of this doctoral thesis. / Mi agradecimiento al Ministerio de Universidades por su apuesta en la financiación de mi proyecto de investigación mediante el contrato FPU16/04571 y por permitirme dedicarme durante estos cuatro años exclusivamente a la investigación y a la docencia universitaria. Agradezco también al Ministerio de Economía y Competitividad y al doctor Jorge Calero, investigador principal del proyecto “Evaluación de intervenciones educativas para la mejora de la calidad educativa”, por permitirme participar como miembro del equipo de trabajo en el proyecto EDU2016-76414-R y financiar la presentación de mis investigaciones en congresos nacionales e internacionales. Igualmente, agradezco a la Fundación Sabadell por otorgarme una ayuda a la investigación científica en la convocatoria 2020-2021. / Gómez Fernández, NM. (2022). Use of Statistical Methods for the Analysis of Educational Data: the Role of ICTs in the Educational Context [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181000

Page generated in 0.1141 seconds