• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 34
  • Tagged with
  • 94
  • 94
  • 93
  • 29
  • 24
  • 18
  • 14
  • 13
  • 13
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Understanding Isoform Expression and Alternative Splicing Biology through Single-Cell RNAseq

Arzalluz Luque, Ángeles 27 April 2024 (has links)
[ES] La introducción de la secuenciación de ARN a nivel de célula única (scRNA-seq) en el ámbito de la transcriptómica ha redefinido nuestro entendimiento de la diversidad celular, arrojando luz sobre los mecanismos subyacentes a la heterogeneidad tisular. No obstante, al inicio de esta tesis, las limitaciones de a esta tecnología obstaculizaban su aplicación en el estudio de procesos complejos, entre ellos el splicing alternativo. A pesar de ello, los patrones de splicing a nivel celular planteaban incógnitas que esta tecnología tenía el potencial de resolver: ¿es posible observar, a nivel celular, la misma diversidad de isoformas que se detecta mediante RNA-seq a nivel de tejido? ¿Qué función desempeñan las isoformas alternativas en la constitución de la identidad celular? El objetivo de esta tesis es desbloquear el potencial del scRNA-seq para el análisis de isoformas, abordando sus dificultades técnicas y analíticas mediante el desarrollo de nuevas metodologías computacionales. Para lograrlo, se trazó una hoja de ruta con tres objetivos. Primero, se establecieron cuatro requisitos para el estudio de las isoformas mediante scRNA-seq, llevando a cabo una revisión de la literatura existente para evaluar su cumplimiento. Tras completar este marco con simulaciones computacionales, se identificaron las debilidades y fortalezas de los métodos de scRNA-seq y las herramientas computacionales disponibles. Durante la segunda etapa de la investigación, estos conocimientos se utilizaron para diseñar un protocolo óptimo de procesamiento de datos de scRNA-seq. En concreto, se integraron datos de lecturas largas a nivel de tejido con datos de scRNA-seq para garantizar una identificación adecuada de las isoformas así como su cuantificación a nivel celular. Este proceso permitió ampliar las estrategias computacionales disponibles para la reconstrucción de transcriptomas a partir de lecturas largas, mejoras que fueron implementadas en SQANTI3, software de referencia en transcriptómica. Por último, los datos procesados se utilizaron para desarrollar un nuevo método de análisis de co-expresión de isoformas a fin de desentrañar redes de regulación del splicing alternativo implicadas en la constitución de la identidad celular. Dada la elevada variabilidad de los datos de scRNA-seq, este método se basa en la utilización de una estrategia de correlación basada en percentiles que atenúa el ruido técnico y permite la identificación de grupos de isoformas co-expresadas. Una vez configurada la red de co-expresión, se introdujo una nueva estrategia de análisis para la detección de patrones de co-utilización de isoformas que suceden de forma independiente a la expresión a nivel de gen, denominada co-Differential Isoform Usage. Este enfoque facilita la identificación de una capa de regulación de la identidad celular atribuible únicamente a mecanismos post-transcripcionales. Para una interpretación biológica más profunda, se aplicó una estrategia de anotación computacional de motivos y dominios funcionales en las isoformas definidas con lecturas largas, revelando las propiedades biológicas de las isoformas involucradas en la red de co-expresión. Estas investigaciones culminan en el lanzamiento de acorde, un paquete de R que encapsula las diferentes metodologías desarrolladas en esta tesis, potenciando la reproducibilidad de sus resultados y proporcionando una nueva herramienta para explorar la biología de las isoformas alternativas a nivel de célula única. En resumen, esta tesis describe una serie de esfuerzos destinados a desbloquear el potencial de los datos de scRNA-seq para avanzar en la comprensión del splicing alternativo. Desde un contexto de escasez de herramientas y conocimiento previo, se han desarrollado soluciones de análisis innovadoras que permiten la aplicación de scRNA-seq al estudio de las isoformas alternativas, proporcionando recursos innovadores para profundizar en la regulación post-transcripcional y la función celular. / [CA] La introducció de la seqüenciació d'ARN a escala de cèl·lula única (scRNA-seq) en l'àmbit de la transcriptòmica ha redefinit el nostre enteniment de la diversitat cel·lular, projectant llum sobre els mecanismes subjacents a l'heterogeneïtat tissular. Malgrat les limitacions inicials d'aquesta tecnologia, especialment en el context de processos complexos com l'splicing alternatiu, els patrons d'splicing a escala cel·lular plantejaven incògnites amb potencial de resolució: és possible observar, a escala cel·lular, la mateixa diversitat d'isoformes que es detecta mitjançant RNA-seq en teixits? Quina funció tenen les isoformes alternatives en la constitució de la identitat cel·lular? L'objectiu d'aquesta tesi és desbloquejar el potencial del scRNA-seq per a l'anàlisi d'isoformes alternatives, abordant les seues dificultats tècniques i analítiques amb noves metodologies computacionals. Per a això, es va traçar una ruta amb tres objectius. Primerament, es van establir quatre requisits per a l'estudi de les isoformes mitjançant scRNA-seq, amb una revisió de la literatura existent per avaluar-ne el compliment. Després de completar aquest marc amb simulacions computacionals, es van identificar les debilitats i fortaleses dels mètodes de scRNA-seq i de les eines computacionals disponibles. Durant la segona etapa de la investigació, aquests coneixements es van utilitzar per dissenyar un protocol òptim de processament de dades de scRNA-seq. En concret, es van integrar dades de lectures llargues a escala de teixit amb dades de scRNA-seq per a garantir una identificació adequada de les isoformes així com la seua quantificació a escala cel·lular. Aquest procés va permetre ampliar les estratègies computacionals disponibles per a la reconstrucció de transcriptomes a partir de lectures llargues, millores que van ser implementades en SQANTI3, un programari de referència en transcriptòmica. Finalment, les dades processades es van fer servir per a desenvolupar un nou mètode d'anàlisi de coexpressió d'isoformes amb l'objectiu de desentranyar xarxes de regulació de l'splicing alternatiu implicades en la constitució de la identitat cel·lular. Donada l'elevada variabilitat de les dades de scRNA-seq, aquest mètode es basa en la utilització d'una estratègia de correlació basada en percentils que minimitza el soroll tècnic i permet la identificació de grups d'isoformes coexpressades. Un cop configurada la xarxa de coexpressió, es va introduir una nova estratègia d'anàlisi per a la detecció de patrons de co-utilització d'isoformes que succeeixen de forma independent a l'expressió del seu gen, denominada co-Differential Isoform Usage. Aquest enfocament facilita la identificació d'una capa de regulació de la identitat cel·lular atribuïble únicament a mecanismes post-transcripcionals. Per a una interpretació biològica més profunda, es va aplicar una estratègia d'anotació computacional de motius i dominis funcionals en les isoformes definides amb lectures llargues, revelant les propietats biològiques de les isoformes involucrades en la xarxa de coexpressió. Aquestes investigacions culminen en el llançament d'acorde, un paquet de R que encapsula les diferents metodologies desenvolupades en aquesta tesi, potenciant la reproducibilitat dels seus resultats i proporcionant una nova eina per a explorar la biologia de les isoformes alternatives a escala de cèl·lula única. En resum, aquesta tesi descriu una sèrie d'esforços destinats a desbloquejar el potencial de les dades de scRNA-seq per a avançar en la comprensió de l'splicing alternatiu. Des d'un context de manca d'eines i coneixement previ, s'han desenvolupat solucions d'anàlisi innovadores que permeten l'aplicació de scRNA-seq a l'estudi de les isoformes alternatives, proporcionant recursos innovadors per a aprofundir en la regulació post-transcripcional i la funció cel·lular. / [EN] In the world of transcriptomics, the emergence of single-cell RNA sequencing (scRNA-seq) ignited a revolution in our understanding of cellular diversity, unraveling novel mechanisms in tissue heterogeneity, development and disease. However, when this thesis began, using scRNA-seq to understand Alternative Splicing (AS) was a challenging frontier due the inherent limitations of the technology. In spite of this research gap, pertinent questions persisted regarding cell-level AS patterns, particularly concerning the recapitulation of isoform diversity observed in bulk RNA-seq data at the cellular level and the roles played by cell and cell type-specific isoforms. The work conducted in the present thesis aims to harness the potential of scRNA-seq for alternative isoform analysis, outlining technical and analytical challenges and designing computational methods to overcome them. To achieve this, we established a roadmap with three main aims. First, we set requirements for studying isoforms using scRNA-seq and conducted an extensive review of existing research, interrogating whether these requirements were met. Combining this acquired knowledge with several computational simulations allowed us to delineate the strengths and pitfalls of available data generation methods and computational tools. During the second research stage, this insight was used to design a suitable data processing pipeline, in which we jointly employed bulk long-read and short-read scRNA-seq sequenced from full-length cDNAs to ensure adequate isoform reconstruction as well as sensitive cell-level isoform quantification. Additionally, we refined available transcriptome curation strategies, introducing them as innovative modules in the transcriptome quality control software SQANTI3. Lastly, we harnessed single-cell isoform expression data and the rich biological diversity inherent in scRNA-seq, encompassing various cell types, in the design of a novel isoform co-expression analysis method. Percentile correlations effectively mitigated single-cell noise, unveiling clusters of co-expressed isoforms and exposing a layer of regulation in cellular identity that operated independently of gene expression. We additionally introduced co-Differential Isoform Usage (coDIU) analysis, enhancing our ability to interpret isoform cluster networks. This endeavour, combined with the computational annotation of functional sites and domains in the long read-defined isoform models, unearthed a distinctive functional signature in coDIU genes. This research effort materialized in the release of acorde, an R package that encapsulates all analyses functionalities developed throughout this thesis, providing a reproducible means for the scientific community to further explore the depths of alternative isoform biology within single-cell transcriptomics. This thesis describes a complex journey aimed at unlocking the potential of scRNA-seq data for investigating AS and isoforms: from a landscape marked by the scarcity of tools and guidelines, towards the development of novel analysis solutions and the acquisition of valuable biological insight. In a swiftly evolving field, our methodological contributions constitute a significant leap forward in the application of scRNA-seq to the study of alternative isoform expression, providing innovative resources for delving deeper into the intricacies of post-transcriptional regulation and cellular function through the lens of single-cell transcriptomics. / The research project was funded by the BIO2015-71658 and BES-2016-076994 grants awarded by the Spanish Ministry of Science and Innovation / Arzalluz Luque, Á. (2024). Understanding Isoform Expression and Alternative Splicing Biology through Single-Cell RNAseq [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203888
72

Gestión de la operación, vigilancia y mantenimiento de equipos de seguridad de centrales nucleares a corto y largo plazo

Martón Lluch, Isabel 09 December 2015 (has links)
[EN] In the last years, several studies have been developed in order to guarantee safety operation of Nuclear Power Plants (NPP), for both, the design plant life and for the Long Term Operation (LTO). In those situations, NPP must face the Periodic Safety Review (PSR). An important part of PRS involves the evaluation of risk impact of Structures, Systems and Components (SSC) ageing and how current asset management programs, e.g. maintenance and testing programs, are successful to achieve the objective of allowing a safe operation. In order to perform this evaluation, it is necessary to extend the current Probabilistic Safety Assessment (PSA) models to take into account, not only equipment ageing, but also maintenance and testing policies. This Ph Dissertation aims to help in NPP safety evaluation in the framework of PSR in both, design life and long-term operation. In this context, two main objectives are proposed. The first one is based on the proposal and application of risk-informed decision making methodology to evaluate the impact of changes to licensing bases, particularly in the ETF, using PSA models and considering aleatory uncertainties. The second is based on the adaptation and development of SSC reliability and availability models to consider not only the effect of aging, but also the effect of components management policies, in particular the testing and maintenance. Finally, these models have been joined to APS in order to obtain a new and extended APS (APSE). Some application cases, for both, risk-informed decision making on changes of licensing bases and for the use of the new APSA in the process of decision making, are provided in order to assess the feasibility and applicability of the new methodologies proposed The work of this thesis is part of the research supported by the Ministry of Economy and Competitiveness in the project ENE2013-45540-R, "Development of Advanced Surveillance Requirements with a focus on safety and competitiveness of Nuclear Power Plants operation in the long term", and in the Doctoral Fellow ENE2010-17449. / [ES] En los últimos años se han desarrollado diversos estudios enfocados a garantizar la operación segura de las centrales nucleares (CCNN), tanto en la operación dentro de la vida de diseño como en la operación a largo plazo. En ambos casos, las centrales deben de afrontar una Revisión Periódica de Seguridad (RPS), la cual, involucra, entre otras tareas, la evaluación del impacto en el riesgo del envejecimiento de Estructuras, Sistemas y Componentes (ESC) y del papel de los programas de gestión de activos, tales como los programas de vigilancia y de mantenimiento de la central. Para llevar a cabo esta evaluación, urge la necesidad de extender los modelos actuales del Análisis Probabilista de Seguridad (APS) para que tenga en cuenta de forma explícita no sólo el efecto del envejecimiento sino también el efecto de las políticas de gestión de componentes activos, en particular, las pruebas y mantenimientos. La presente tesis doctoral pretende servir de ayuda en las evaluaciones de la seguridad de las CCNN, y en el contexto de las RPS, tanto en la operación dentro de la vida de diseño como en la operación a largo plazo. En este contexto se plantean dos objetivos principales. El primero, se basa en la propuesta y aplicación de una metodología de toma de decisiones basada en la utilización de los modelos y datos del APS para llevar a cabo la evaluación del impacto en el riesgo de cambios en las bases de licencia, concretamente en las ETF de las CCNN, en presencia de incertidumbres. El segundo, se basa en la adaptación y desarrollo de los modelos de fiabilidad y disponibilidad convencionales de ESC para que consideren de forma explícita no sólo el efecto del envejecimiento, sino también el efecto de las políticas de gestión de componentes activos, en particular de las pruebas y mantenimiento. Finalmente, estos modelos se han incorporado al APS con el objetivo de obtener un nuevo APS Extendido (APSE). Tanto para la toma de decisiones informada en el riesgo para cambios en las bases de licencia, cómo para la toma de decisiones utilizando el nuevo modelo extendido, APSE, se aportan casos de aplicación que demuestran la viabilidad y aplicabilidad de los mismos. El trabajo realizado en la presente tesis doctoral se enmarca dentro de la línea de investigación financiada por el Ministerio de Economía y Competitividad en el proyecto ENE2013-45540-R, "Desarrollo de Requisitos de vigilancia avanzados enfocados a la seguridad y competitividad de la operación a largo plazo de centrales nucleares" y en la beca de Formación de Personal Investigador (FPI) ENE2010-17449. / [CAT] En els últims anys s'han desenvolupat diversos estudis enfocats a garantir l'operació segura de les centrals nuclears (CCNN), tant en l'operació dins de la vida de disseny com en l'operació a llarg termini. En ambdos casos, les centrals han d'afrontar una Revisió Periòdica de Seguretat (RPS), la qual, involucra, entre altres tasques, l'avaluació de l'impacte en el risc de l'envelliment d'Estructures, Sistemes i components (ESC) i del paper dels programes de gestió d'actius, com els programes de vigilància i de manteniment de la central. Per dur a terme aquesta avaluació, urgeix la necessitat d'estendre els models actuals de l'Anàlisi Probabilista de Seguretat (APS) perquè tinga en compte de manera explícita no sols l'efecte de l'envelliment sinó també l'efecte de les polítiques de gestió de components actius, en particular, les proves i manteniments. La present tesi doctoral pretén servir d'ajuda en les avaluacions de la seguretat de les CCNN, i en el context de les RPS, tant en l'operació dins de la vida de disseny com en l'operació a llarg termini. En aquest context es plantegen dos objectius principals. El primer, es basa en la proposta i aplicació d'una metodologia de presa de decisions basada en la utilització dels models i dades de l'APS per a dur a terme l'avaluació de l'impacte en el risc de canvis en les bases de llicència, concretament en les ETF de les CCNN, en presència d'incerteses. El segon, es basa en l'adaptació i desenvolupament dels models de fiabilitat i disponibilitat convencionals d'estructures, sistemes i components perquè considerin de forma explícita no només l'efecte de l'envelliment, sinó també l'efecte de les polítiques de gestió de components actius, en particular de les proves i manteniment. Finalment, aquests models s'han incorporat al APS amb l'objectiu d'obtenir un nou APS Estès (APSE). Tant per a la presa de decisions informada en el risc per canvis en les bases de llicència com per a la presa de decisions utilitzant el nou model estès, APSE, s'aporten casos d'aplicació que demostren la viabilitat i aplicabilitat dels mateixos. El treball realitzat en la present tesi doctoral s'emmarca dins de la línia d'investigació finançada pel Ministeri d'Economia i Competitivitat en el projecte ENE2013-45540-R, "Desarrollo de Requisitos de vigilancia avanzados enfocados a la seguridad y competitividad de la operación a largo plazo de centrales nucleares" i en la beca de Formació de Personal Investigador (FPI) ENE2010-17449. / Martón Lluch, I. (2015). Gestión de la operación, vigilancia y mantenimiento de equipos de seguridad de centrales nucleares a corto y largo plazo [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58615 / TESIS
73

Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos

Barceló Cerdá, Susana 04 May 2016 (has links)
[EN] Statistical Process Control (SPC) and the Automatic Process Control (APC) are two control philosophies have evolved independently until recently. The overall objective of both APC and SPC is to optimize the performance of processes, reducing the variability of the resulting characteristics around the desired values. The fundamentals of the two disciplines arise from the idea that the whole process has operation variations. These variations may affect, to a greater or lesser extent, the final product quality and the process productivity. The two methodologies conceptualize processes and control in different ways, they originated in different industrial sectors and have evolved independently, until the interest to integrate them in the control of industrial processes was deduced. It was warned that they could be complementary rather than conflicting methodologies as they were understood until then. The possibility of combining the advantages of both, integrating them into a new control paradigm was explored. First, the problem of identifying and estimating a process model is considered. Controlled variables in this model are the main feature of product quality and a productivity variable. The latter is innovative since the productivity variables are measured, but they are not considered as controlled variables. For this, two methods of multivariate time series are used, the Box-Jenkins multiple transfer function in the parsimonious way and the impulse response function obtained by Partial Least Squares regression (Time Series-Partial Least Squares, TS-PLS). These two methods were compared taking into account different aspects such as the simplicity of the modeling process in the stages of identification, estimation and model validation, as well as the utility of graphical tools that provide both methodologies, the goodness of fit obtained, and the simplicity of the mathematical structure of the model. The DMC (Dynamic Matrix Control) controller, an automatic control algorithm belonging to the family of MPC (Model Predictive Control) controllers, is derived from the estimated Box-Jenkins multiple transfer function that has been selected as the most suitable for this kind of processes. An optimal tuning method to maximize the controller performance, applying experimental design 2k-p, is presented. Finally, an integrated control system MESPC (Multivariate Engineering Statistical Process Control) whose monitoring component has been implemented applying latent structures based multivariate statistical process control methods (Lsb-MSPC), has been developed. The monitoring module is designed to act as both process and DMC controller supervisor. To do this, we estimate a NOC-PCA model (Normal Operation Conditions Principal Component Analysis), which has as variables both process-related and quality-related variables, all derived from the automatic control system. From this model, and DModX graphics have been derived. We assessed the performance of MESPC system, subjecting it to simulated potential failures or special causes of variability. / [ES] El Control Estadístico de Procesos (Statistical Process Control, SPC) y el Control Automático de Procesos (Automatic Process Control, APC) son dos filosofías de control se han desarrollado hasta recientemente de forma independiente. El objetivo general tanto del SPC como del APC, es optimizar el funcionamiento de los procesos, reduciendo la variabilidad de las características resultantes en torno a los valores deseados. El fundamento de ambas disciplinas, parte de la idea de que todo proceso presenta variaciones en su funcionamiento. Estas variaciones pueden afectar en mayor o en menor medida a la calidad final del producto y a la productividad del proceso. Las dos metodologías conceptualizan los procesos y su control de diferentes formas, se originaron en diferentes sectores industriales y han evolucionado de forma independiente, hasta que se dedujo el interés de integrarlas en el control de los procesos industriales, ya que se advirtió que podían ser complementarias, antes que contrapuestas, como se entendían hasta entonces y se exploró la posibilidad de aunar las ventajas de ambas, integrándolas en un nuevo paradigma de control. Esta tesis se centra en el estudio de la integración de procedimientos multivariantes para la regulación óptima y la monitorización estadística de procesos, con el propósito de contribuir a la mejora de la calidad y de la productividad de los procesos. La metodología propuesta se ha aplicado con fines ilustrativos a un proceso MIMO de producción en continuo de Polietileno de Alta Densidad (PEAD).En primer lugar, se considera el problema de la identificación y posterior estimación de un modelo del proceso. Las variables controladas en este modelo han sido la principal característica de calidad del producto y una variable de productividad, esto último es innovador puesto que las variables de productividad se miden, pero no se consideran variables controladas. Para ello, se emplean dos metodologías de series temporales multivariantes, la obtención de la función de transferencia múltiple en forma parsimoniosa de Box-Jenkins y la obtención de la función de respuesta a impulsos mediante los modelos de regresión por mínimos cuadrados parciales (Time Series-Partial Least Squares, TS-PLS). Estas dos metodologías se han comparado teniendo en cuenta distintos aspectos como son la simplicidad del proceso de modelado en las etapas de identificación, estimación y validación del modelo, así como la utilidad de las herramientas gráficas que proporcionan ambas metodologías, la bondad de ajuste obtenida, y la simplicidad de la estructura matemática del modelo. A partir del modelo de función de transferencia múltiple estimado, elegido como el más adecuado para este tipo de procesos, se desarrolla el controlador DMC (Dynamic Matrix Control), un algoritmo de control automático que pertenece a la familia del Control Predictivo basado en Modelos (Model Predictive Control, MPC). Se presenta un método de sintonizado óptimo del controlador que permita maximizar su rendimiento, aplicando diseño de experimentos 2k-p.Finalmente, se ha desarrollado un sistema de control integrado MESPC (Multivariate Engineering Statistical Process Control), cuya componente de monitorización se ha implementado aplicando métodos de control estadístico multivariante de procesos basados en técnicas de proyección en estructuras latentes. Este módulo de monitorización se ha diseñado para que actúe como supervisor tanto del proceso como del controlador DMC. Para ello, se ha estimado un modelo NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el que han intervenido tanto variables relacionadas con el proceso como con la calidad, todas derivadas de la componente del control automático. A partir de este modelo se han derivado los gráficos y DModX. Se ha evaluado el funcionamiento del sistema MESPC, sometiéndolo a fallos potenciales o causas especiales de variabiliabilidad. / [CAT] El Control Estadístic de Processos (Statistical Process Control, SPC) i del Control Automàtic de Processos (Automatic Process Control, APC) son dues filosofies de control s'han desenvolupat fins a recentment de forma independent. L'objectiu general tant del SPC com del APC, és optimitzar el funcionament dels processos, reduint la variabilitat de les característiques resultants entorn dels valors desitjats. El fonament d'ambdues disciplines, part de la idea que tot procés presenta variacions en el seu funcionament. Aquestes variacions poden afectar en major o en menor mesura a la qualitat final del producte i a la productivitat del procés. Les dues metodologies conceptualitzen els processos i el seu control de diferents formes, es van originar en diferents sectors industrials i han evolucionat de forma independent, fins que es va deduir l'interès d'integrar-les en el control dels processos industrials, ja que es va advertir que podien ser complementàries, abans que contraposades, com s'entenien fins llavors i es va explorar la possibilitat de conjuminar els avantatges d'ambdues, integrant-les en un nou paradigma de control. Aquesta tesi se centra en l'estudi de la integració de procediments multivariants per a la regulació òptima i el monitoratge estadístic de processos amb el propòsit de contribuir a la millora de la qualitat i de la productivitat dels processos. La metodologia proposada s'ha aplicat amb finalitats il·lustratives a un procés MIMO de producció en continu de Polietilè d'Alta Densitat (PEAD). En primer lloc, es considera el problema de la identificació i posterior estimació d'un model del procés. Les variables controlades en aquest model han sigut la principal característica de qualitat del producte i una variable de productivitat, açò últim és innovador ja que les variables de productivitat es mesuren, però no es consideren variables controlades. Per a açò, s'utilitzen dues metodologies de sèries temporals multivariants, l'obtenció de la funció de transferència múltiple en forma parsimòniosa de Box-Jenkins i l'obtenció de la funció de resposta a impulsos mitjançant els models de regressió per mínims quadrats parcials (Times Series-Partial Least Squares, TS-PLS). Aquestes dues metodologies s'han comparat tenint en compte diferents aspectes com són la simplicitat del procés de modelatge en les etapes d'identificació, estimació i validació del model, així com la utilitat de les eines gràfiques que proporcionen ambdues metodologies, la bondat d'ajust obtinguda, i la simplicitat de l'estructura matemàtica del model. A partir del model de funció de transferència múltiple estimat, triat com el més adequat per a aquest tipus de processos, es desenvolupa el controlador DMC (Dynamic Matrix Control), un algorisme de control automàtic que pertany a la família del Control Predictiu basat en Models (Model Predictive Control, MPC). Es presenta un mètode de sintonitzat òptim del controlador que permeta maximitzar el seu rendiment, aplicant disseny d'experiments 2k-p. Finalment, s'ha desenvolupat un sistema de control integrat MESPC (Multivariate Engineering Statistical Process Control). Per a implementar la component de monitoratge d'aquest sistema integrat s'han usat mètodes de control estadístic multivariants de processos basats en tècniques de projecció en estructures latents (Latent structures based-Multivariate Statistical Process Control). Aquest mòdul de monitoratge s'ha dissenyat perquè actue com a supervisor tant del procés com del controlador DMC. Per a açò, s'ha estimat un model NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el qual han intervingut variables relacionades tant amb el procés, com amb la qualitat, totes derivades de la component del control automàtic. A partir d'aquest model s'han derivat els gràfics i DModX. S'ha avaluat el funcionament del sistema MESPC, sotmetent-lo a fallades potencials o causes especials de / Barceló Cerdá, S. (2016). Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63442 / TESIS
74

The Distributed and Assembly Scheduling Problem

Hatami, Sara 16 May 2016 (has links)
[EN] Nowadays, manufacturing systems meet different new global challenges and the existence of a collaborative manufacturing environment is essential to face with. Distributed manufacturing and assembly systems are two manufacturing systems which allow industries to deal with some of these challenges. This thesis studies a production problem in which both distributed manufacturing and assembly systems are considered. Although distributed manufacturing systems and assembly systems are well-known problems and have been extensively studied in the literature, to the best of our knowledge, considering these two systems together as in this thesis is the first effort in the literature. Due to the importance of scheduling optimization on production performance, some different ways to optimize the scheduling of the considered problem are discussed in this thesis. The studied scheduling setting consists of two stages: A production and an assembly stage. Various production centers make the first stage. Each of these centers consists of several machines which are dedicated to manufacture jobs. A single assembly machine is considered for the second stage. The produced jobs are assembled on the assembly machine to form final products through a defined assembly program. In this thesis, two different problems regarding two different production configurations for the production centers of the first stage are considered. The first configuration is a flowshop that results in what we refer to as the Distributed Assembly Permutation Flowshop Scheduling Problem (DAPFSP). The second problem is referred to as the Distributed Parallel Machine and Assembly Scheduling Problem (DPMASP), where unrelated parallel machines configure the production centers. Makespan minimization of the product on the assembly machine located in the assembly stage is considered as the objective function for all considered problems. In this thesis some extensions are considered for the studied problems so as to bring them as close as possible to the reality of production shops. In the DAPFSP, sequence dependent setup times are added for machines in both production and assembly stages. Similarly, in the DPMASP, due to technological constraints, some defined jobs can be processed only in certain factories. Mathematical models are presented as an exact solution for some of the presented problems and two state-of-art solvers, CPLEX and GUROBI are used to solve them. Since these solvers are not able to solve large sized problems, we design and develop heuristic methods to solve the problems. In addition to heuristics, some metaheuristics are also designed and proposed to improve the solutions obtained by heuristics. Finally, for each proposed problem, the performance of the proposed solution methods is compared through extensive computational and comprehensive ANOVA statistical analysis. / [ES] Los sistemas de producción se enfrentan a retos globales en los que el concepto de fabricación colaborativa es crucial para poder tener éxito en el entorno cambiante y complejo en el que nos encontramos. Una característica de los sistemas productivos que puede ayudar a lograr este objetivo consiste en disponer de una red de fabricación distribuida en la que los productos se fabriquen en localizaciones diferentes y se vayan ensamblando para obtener el producto final. En estos casos, disponer de modelos y herramientas para mejorar el rendimiento de sistemas de producción distribuidos con ensamblajes es una manera de asegurar la eficiencia de los mismos. En esta tesis doctoral se estudian los sistemas de fabricación distribuidos con operaciones de ensamblaje. Los sistemas distribuidos y los sistemas con operaciones de ensamblaje han sido estudiados por separado en la literatura. De hecho, no se han encontrado estudios de sistemas con ambas características consideradas de forma conjunta. Dada la complejidad de considerar conjuntamente ambos tipos de sistemas a la hora de realizar la programación de la producción en los mismos, se ha abordado su estudio considerando un modelo bietápico en la que en la primera etapa se consideran las operaciones de producción y en la segunda se plantean las operaciones de ensamblaje. Dependiendo de la configuración de la primera etapa se han estudiado dos variantes. En la primera variante se asume que la etapa de producción está compuesta por sendos sistemas tipo flowshop en los que se fabrican los componentes que se ensamblan en la segunda etapa (Distributed Assembly Permutation Flowshop Scheduling Problem o DAPFSP). En la segunda variante se considera un sistema de máquinas en paralelo no relacionadas (Distributed Parallel Machine and Assembly Scheduling Problem o DPMASP). En ambas variantes se optimiza la fecha de finalización del último trabajo secuenciado (Cmax) y se contempla la posibilidad que existan tiempos de cambio (setup) dependientes de la secuencia de trabajos fabricada. También, en el caso DPMASP se estudia la posibilidad de prohibir o no el uso de determinadas máquinas de la etapa de producción. Se han desarrollado modelos matemáticos para resolver algunas de las variantes anteriores. Estos modelos se han resuelto mediante los programas CPLEX y GUROBI en aquellos casos que ha sido posible. Para las instancias en los que el modelo matemático no ofrecía una solución al problema se han desarrollado heurísticas y metaheurísticas para ello. Todos los procedimientos anteriores han sido estudiados para determinar el rendimiento de los diferentes algoritmos planteados. Para ello se ha realizado un exhaustivo estudio computacional en el que se han aplicado técnicas ANOVA. Los resultados obtenidos en la tesis permiten avanzar en la comprensión del comportamiento de los sistemas productivos distribuidos con ensamblajes, definiendo algoritmos que permiten obtener buenas soluciones a este tipo de problemas tan complejos que aparecen tantas veces en la realidad industrial. / [CAT] Els sistemes de producció s'enfronten a reptes globals en què el concepte de fabricació col.laborativa és crucial per a poder tindre èxit en l'entorn canviant i complex en què ens trobem. Una característica dels sistemes productius que pot ajudar a aconseguir este objectiu consistix a disposar d'una xarxa de fabricació distribuïda en la que els productes es fabriquen en localitzacions diferents i es vagen acoblant per a obtindre el producte final. En estos casos, disposar de models i ferramentes per a millorar el rendiment de sistemes de producció distribuïts amb acoblaments és una manera d'assegurar l'eficiència dels mateixos. En esta tesi doctoral s'estudien els sistemes de fabricació distribuïts amb operacions d'acoblament. Els sistemes distribuïts i els sistemes amb operacions d'acoblament han sigut estudiats per separat en la literatura però, en allò que es coneix, no s'han trobat estudis de sistemes amb ambdós característiques conjuntament. Donada la complexitat de considerar conjuntament ambdós tipus de sistemes a l'hora de realitzar la programació de la producció en els mateixos, s'ha abordat el seu estudi considerant un model bietàpic en la que en la primera etapa es consideren les operacions de producció i en la segona es plantegen les operacions d'acoblament. Depenent de la configuració de la primera etapa s'han estudiat dos variants. En la primera variant s'assumix que l'etapa de producció està composta per sengles sistemes tipus flowshop en els que es fabriquen els components que s'acoblen en la segona etapa (Distributed Assembly Permutation Flowshop Scheduling Problem o DAPFSP). En la segona variant es considera un sistema de màquines en paral.lel no relacionades (Distributed Parallel Machine and Assembly Scheduling Problem o DPMASP). En ambdós variants s'optimitza la data de finalització de l'últim treball seqüenciat (Cmax) i es contempla la possibilitat que existisquen temps de canvi (setup) dependents de la seqüència de treballs fabricada. També, en el cas DPMASP s'estudia la possibilitat de prohibir o no l'ús de determinades màquines de l'etapa de producció. S'han desenvolupat models matemàtics per a resoldre algunes de les variants anteriors. Estos models s'han resolt per mitjà dels programes CPLEX i GUROBI en aquells casos que ha sigut possible. Per a les instàncies en què el model matemàtic no oferia una solució al problema s'han desenrotllat heurístiques i metaheurísticas per a això. Tots els procediments anteriors han sigut estudiats per a determinar el rendiment dels diferents algoritmes plantejats. Per a això s'ha realitzat un exhaustiu estudi computacional en què s'han aplicat tècniques ANOVA. Els resultats obtinguts en la tesi permeten avançar en la comprensió del comportament dels sistemes productius distribuïts amb acoblaments, definint algoritmes que permeten obtindre bones solucions a este tipus de problemes tan complexos que apareixen tantes vegades en la realitat industrial. / Hatami, S. (2016). The Distributed and Assembly Scheduling Problem [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/64072 / TESIS
75

On the effective deployment of current machine translation technology

González Rubio, Jesús 03 June 2014 (has links)
Machine translation is a fundamental technology that is gaining more importance each day in our multilingual society. Companies and particulars are turning their attention to machine translation since it dramatically cuts down their expenses on translation and interpreting. However, the output of current machine translation systems is still far from the quality of translations generated by human experts. The overall goal of this thesis is to narrow down this quality gap by developing new methodologies and tools that improve the broader and more efficient deployment of machine translation technology. We start by proposing a new technique to improve the quality of the translations generated by fully-automatic machine translation systems. The key insight of our approach is that different translation systems, implementing different approaches and technologies, can exhibit different strengths and limitations. Therefore, a proper combination of the outputs of such different systems has the potential to produce translations of improved quality. We present minimum Bayes¿ risk system combination, an automatic approach that detects the best parts of the candidate translations and combines them to generate a consensus translation that is optimal with respect to a particular performance metric. We thoroughly describe the formalization of our approach as a weighted ensemble of probability distributions and provide efficient algorithms to obtain the optimal consensus translation according to the widespread BLEU score. Empirical results show that the proposed approach is indeed able to generate statistically better translations than the provided candidates. Compared to other state-of-the-art systems combination methods, our approach reports similar performance not requiring any additional data but the candidate translations. Then, we focus our attention on how to improve the utility of automatic translations for the end-user of the system. Since automatic translations are not perfect, a desirable feature of machine translation systems is the ability to predict at run-time the quality of the generated translations. Quality estimation is usually addressed as a regression problem where a quality score is predicted from a set of features that represents the translation. However, although the concept of translation quality is intuitively clear, there is no consensus on which are the features that actually account for it. As a consequence, quality estimation systems for machine translation have to utilize a large number of weak features to predict translation quality. This involves several learning problems related to feature collinearity and ambiguity, and due to the ¿curse¿ of dimensionality. We address these challenges by adopting a two-step training methodology. First, a dimensionality reduction method computes, from the original features, the reduced set of features that better explains translation quality. Then, a prediction model is built from this reduced set to finally predict the quality score. We study various reduction methods previously used in the literature and propose two new ones based on statistical multivariate analysis techniques. More specifically, the proposed dimensionality reduction methods are based on partial least squares regression. The results of a thorough experimentation show that the quality estimation systems estimated following the proposed two-step methodology obtain better prediction accuracy that systems estimated using all the original features. Moreover, one of the proposed dimensionality reduction methods obtained the best prediction accuracy with only a fraction of the original features. This feature reduction ratio is important because it implies a dramatic reduction of the operating times of the quality estimation system. An alternative use of current machine translation systems is to embed them within an interactive editing environment where the system and a human expert collaborate to generate error-free translations. This interactive machine translation approach have shown to reduce supervision effort of the user in comparison to the conventional decoupled post-edition approach. However, interactive machine translation considers the translation system as a passive agent in the interaction process. In other words, the system only suggests translations to the user, who then makes the necessary supervision decisions. As a result, the user is bound to exhaustively supervise every suggested translation. This passive approach ensures error-free translations but it also demands a large amount of supervision effort from the user. Finally, we study different techniques to improve the productivity of current interactive machine translation systems. Specifically, we focus on the development of alternative approaches where the system becomes an active agent in the interaction process. We propose two different active approaches. On the one hand, we describe an active interaction approach where the system informs the user about the reliability of the suggested translations. The hope is that this information may help the user to locate translation errors thus improving the overall translation productivity. We propose different scores to measure translation reliability at the word and sentence levels and study the influence of such information in the productivity of an interactive machine translation system. Empirical results show that the proposed active interaction protocol is able to achieve a large reduction in supervision effort while still generating translations of very high quality. On the other hand, we study an active learning framework for interactive machine translation. In this case, the system is not only able to inform the user of which suggested translations should be supervised, but it is also able to learn from the user-supervised translations to improve its future suggestions. We develop a value-of-information criterion to select which automatic translations undergo user supervision. However, given its high computational complexity, in practice we study different selection strategies that approximate this optimal criterion. Results of a large scale experimentation show that the proposed active learning framework is able to obtain better compromises between the quality of the generated translations and the human effort required to obtain them. Moreover, in comparison to a conventional interactive machine translation system, our proposal obtained translations of twice the quality with the same supervision effort. / González Rubio, J. (2014). On the effective deployment of current machine translation technology [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37888 / TESIS
76

Estudio del cuestionario de evaluación del profesorado de la UPV mediante opinión de los estudiantes. Tratamiento estadístico

Martínez Gómez, Mónica 06 May 2008 (has links)
La mejora de la calidad de las instituciones universitarias constituye el reto más importante en los próximos años para las universidades y el instrumento potencial para ello lo constituye la evaluación institucional, en general, y la evaluación de la actividad docente, en especial. El cuestionario de opinión de los estudiantes, es el instrumento de evaluación de la actividad docente más generalizado en las universidades españolas. El objetivo general del trabajo es desarrollar una metodología estadística adecuada para extraer, analizar e interpretar la información contenida en el Cuestionario de Evaluación Docente mediante Opinión de los Alumnos (CEDA) de la UPV, con la finalidad de optimizar su utilización práctica. El estudio se centra en la aplicación de distintas técnicas multivariantes a las puntuaciones medias e individuales obtenidas en los ítems del cuestionario y a diversas características descriptivas referentes al profesor o asignatura. Con la utilización conjunta de las técnicas propuestas, se pretende optimizar el uso del CEDA como herramienta de medida e indicador de calidad de la enseñanza en la universidad, para introducir actuaciones de mejora continua en los procesos educativos de la UPV. DESCRIPTORES Análisis multivariantes; Análisis de encuestas; Calidad de la docencia universitaria; Cuestionario de Evaluación Docente. / Martínez Gómez, M. (2005). Estudio del cuestionario de evaluación del profesorado de la UPV mediante opinión de los estudiantes. Tratamiento estadístico [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1891 / Palancia
77

La adopción de tecnología en los invernaderos hortícolas mediterráneos

García Martínez, María del Carmen 25 November 2009 (has links)
En la horticultura intensiva española la mayor parte de las exportaciones procede de los cultivos de invernadero, localizados en Almería, Murcia y Alicante, donde se ha centrado el presente estudio. Actualmente la posición competitiva no presenta amenazas muy graves pero tampoco muestra una etapa creciente. Exportaciones y precios soportan la competencia de otros países del área mediterránea, con los cuales España debe competir en capital y en tecnología elevando el nivel de equipamiento de los invernaderos. Ante unas exigencias de reestructuración de las instalaciones actuales, no aplazables, se plantea la presente tesis con el fin de conocer el estado actual de la tecnología y su evolución y, además, las características de las explotaciones y la actitud de sus titulares respecto a las innovaciones necesarias. Las fuentes de información se han basado en una toma de precios en origen del tomate y pimiento, como principales productos hortícolas, y en una encuesta, realizada en 242 explotaciones, mediante muestreo proporcional estratificado, en las zonas de El Ejido (Almería), Valle del Guadalentín y Campo de Cartagena (Murcia) y Sur de Alicante. El análisis de la información tuvo una primera parte dedicada a los precios, con el cálculo de la tendencia y la estacionalidad y la aplicación de modelos ARIMA. La finalidad ha sido conocer la evolución de las rentas de los productores, efectuar predicciones, y establecer una relación entre los precios y la tecnología adoptable. El tratamiento de los datos de la encuesta con sus resultados comprende la mayor parte del contenido del trabajo. Se aplicó el análisis estadístico univariante a las características estructurales de explotaciones e invernaderos y el bivariante, con contraste de independencia, para determinar relaciones de interés entre los factores que influyen en los procesos de innovación. / García Martínez, MDC. (2009). La adopción de tecnología en los invernaderos hortícolas mediterráneos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6472 / Palancia
78

Estrategia y Filantropía, aunando objetivos de negocios y sociales. Un Modelo para analizar los patrones de filantropía estratégica de las empresas

García Ortega, Beatriz 12 September 2018 (has links)
The responsible behavior of companies is a field to keep exploring due to its theoretical and practical complexity, its different contexts and connotations, its growing questioning and demand by society and its rapid evolution. This thesis focuses on the study and deepening on the role of companies in society, and in particular on their altruistic or philanthropic behavior and their social responsibility, with community involvement as a key axis. It consists of three blocks, with approaches and techniques that offer new contributions. The first one analyzes the philanthropic behavior and the community involvement of the companies listed in the stock indexes of Spain, France, Germany and Holland, through the use of terminology in the literature and memories of sustainability and the formulas to channel the help and the beneficiaries. The variables that most influence the use of the terms are the country and especially the incomes of the companies, being the ones with less weight the number of employees and the sector. It is also inferred that these activities require significant economic resources. The results show that the companies analyzed are aware of their role and actively participate in their communities. The main contribution of this work is its focus on the community and the connection with literature. The bibliometric analysis through an iterative process has proved useful for detecting terms related to the subject. The other two works analyze the behavior of companies in a controversial sector such as mining, an example of the development of corporate social responsibility (CSR) to improve its position and image, obtain a social license to operate (SLO) and reduce resistance to its implementation and operations. The sector, while being a leader in CSR, faces great challenges. The research starts with the analysis of the letters of the CEOs of 32 leading mining companies and their sustainability reports to analyze the influence of discourse in its strategy for obtaining SLO and community involvement. In addition, we analyze the years 2011 and 2015, to see the evolution in the speech and whether it affects the strategy on the SLO and the community. These letters are highlighted in the literature for their ability to communicate the orientation of companies in relation to social issues and community involvement. The results show the orientation towards obtaining legitimacy, credibility and trust in the communities where they operate, so that it is translated in the achievement of the SLO. In addition, it is observed how the evolution of the discourse involves changes of strategies and also a commitment on behalf of the companies to reduce the dependence on the mining. On the other hand, there is an increase in works in the mining sector based on the perceptions of stakeholders, who are those granting the SLO. In the literature the difficulty of its understanding is well identified and so the study of the stakeholders perception in contrast to the one of the companies is found of interest. Our research is carried out through a qualitative interview methodology taking as sample a large area with several Latin American countries. The results show different perceptions between companies and stakeholders on the analysis and diagnosis of the current situation and on the degree of implementation and effectiveness of CSR policies. The stakeholders demand greater objectivity and credibility in the reports; They find companies minimizing impacts and overestimating their benefits and community involvement. On the contrary, they agree on the need for a multi-actor model, with greater participation of the community, and on the role of NGOs and governments in defending the community and to avoid conflicts and rejections. The results help to understand the different realities perceived and the causes of rejection, as a way to improve the CSR policies. / El comportamiento responsable de las empresas es un campo a seguir explorando por su complejidad teórica y práctica, sus diversos contextos y connotaciones, su creciente cuestionamiento y exigencia por la sociedad y su rápida evolución. Esta tesis se orienta hacia el estudio y profundización sobre el papel de las empresas en la sociedad, y en particular su comportamiento altruista o filantrópico y su responsabilidad social, con la participación en la comunidad como eje clave. Consta de tres bloques, con planteamientos y técnicas que ofrecen nuevas aportaciones. El primero analiza el comportamiento filantrópico y la participación en la comunidad de las empresas que cotizan en los índices bursátiles de España, Francia, Alemania y Holanda, a través del uso de la terminología en la literatura y memorias de sostenibilidad y las fórmulas para canalizar la ayuda y los beneficiarios. Las variables que más influyen en el uso de los términos son el país y especialmente los ingresos de las empresas, siendo las de menor peso el número de empleados y el sector. Se infiere además que estas actividades requieren de importantes recursos económicos. Los resultados muestran que las empresas analizadas son conscientes de su papel y participan activamente en sus comunidades. La principal novedad de este trabajo es su enfoque centrado en la comunidad y desde la conexión con la literatura. El análisis bibliométrico a través de un proceso iterativo muestra su utilidad para detectar términos relacionados con el tema. Los otros dos trabajos analizan el comportamiento de empresas en un sector controvertido como el de la minería, exponente del desarrollo de la responsabilidad social corporativa (RSC) para mejorar su posición e imagen, obtener licencia social para operar (SLO) y reducir la resistencia a su implantación y actividad. El sector, aun siendo puntero en la RSC, afronta grandes desafíos. Así, la investigación parte del análisis de las cartas de los CEOs de 32 destacadas empresas mineras y las memorias de sostenibilidad para analizar la influencia del discurso en su estrategia para la obtención de la SLO y en la participación en sus comunidades. Además, se analizan los años 2011 y 2015, para ver la evolución en el discurso y si afecta a la estrategia sobre la SLO y la comunidad. Estas cartas son destacadas en la literatura por su capacidad de comunicar la orientación de las empresas en relación a asuntos sociales y a la participación de la comunidad. Los resultados muestran la orientación hacia la obtención de legitimidad, credibilidad y confianza por parte de la comunidad, para que ésta se traduzca en la obtención de la SLO. Además, se observa cómo la evolución del discurso se traduce en cambios de estrategias y un compromiso por parte de las empresas por reducir la dependencia de la minería. Por otro lado se observa un aumento de trabajos en el sector minero desde las percepciones de los stakeholders, que son los que otorgan la SLO. En la literatura se reconoce la dificultad de comprensión y por ello se encuentra interesante el estudio de la percepción de los stakeholders en contraste con la de las empresas. Se realiza mediante entrevista cualitativa tomando como muestra una amplia zona con países de Latinoamérica. Los resultados muestran diferentes percepciones entre empresas y stakeholders en el análisis y diagnóstico de la situación actual y en el grado de implementación y eficacia de las políticas de RSC. Desde los stakeholders se demanda mayor objetividad y credibilidad en las memorias; consideran que las empresas minimizan los impactos y ensalzan sus beneficios y la participación de la comunidad. Por contra, coinciden en la necesidad de un modelo multiactor, con mayor participación de la comunidad, y en el papel de las ONGs y los gobiernos en defensa de la comunidad y para evitar conflictos y rechazos. Los resultados ayudan a la comprensión de las distintas realidades percib / El comportament responsable de les empreses és un camp a seguir explorant per la complexitat teòrica i pràctica, els diversos contextos i connotacions, el creixent qüestionament i exigència per part de la societat i la seua ràpida evolució. Aquesta tesi s'orienta cap a l'estudi i aprofundiment sobre el paper de les empreses en la societat, i en particular el seu comportament altruista o filantròpic i la seua responsabilitat social, amb la participació en la comunitat com a eix clau. Consta de tres blocs, amb plantejaments i tècniques que ofereixen noves aportacions. El primer analitza el comportament filantròpic i la participació en la comunitat de les empreses que cotitzen en els índexs borsaris d'Espanya, França, Alemanya i Holanda, a través de l'ús de la terminologia en la literatura i memòries de sostenibilitat i les fórmules per canalitzar la ajuda i els beneficiaris. Les variables que més influeixen en l'ús dels termes són el país i especialment els ingressos de les empreses, sent les de menor pes el nombre d'empleats i el sector. S'infereix a més que aquestes activitats requereixen d'importants recursos econòmics. Els resultats mostren que les empreses analitzades són conscients del seu paper i participen activament en les seues comunitats. La principal novetat d'aquest treball és el seu plantejament centrat en la comunitat i des de la connexió amb la literatura. L'anàlisi bibliomètrica a través d'un procés iteratiu mostra la seua utilitat per detectar termes relacionats amb el tema. Els altres dos treballs analitzen el comportament d'empreses en un sector controvertit com el de la mineria, exponent del desenvolupament de la responsabilitat social corporativa (RSC) per millorar la seua posició i imatge, obtenir llicència social per operar (SLO) i reduir la resistència a la seua implantació i activitat. El sector, tot i ser capdavanter en la RSC, afronta grans reptes. Així, la investigació parteix de l'anàlisi de les cartes dels CEOs de 32 destacades empreses mineres i les memòries de sostenibilitat per a analitzar la influència del discurs en la seua estratègia per a l'obtenció de la SLO i en la participació en les seves comunitats. A més, s'analitzen els anys 2011 i 2015, per veure l'evolució en el discurs i si afecta a l'estratègia sobre la SLO i la comunitat. Aquestess cartes són destacades en la literatura per la seua capacitat de comunicar l'orientació de les empreses en relació a assumptes socials i a la participació de la comunitat. Els resultats mostren l'orientació cap a l'obtenció de legitimitat, credibilitat i confiança per part de la comunitat, perquè aquesta es tradueixi en l'obtenció de la SLO. A més, s'observa com l'evolució del discurs es tradueix en canvis d'estratègies i un compromís per part de les empreses per reduir la dependència de la mineria. D'altra banda s'observa un augment de treballs en el sector miner des de les percepcions dels stakeholders, que són els que atorguen la SLO. En la literatura es reconeix la dificultat de comprensió i per això es troba interessant l'estudi de la percepció dels stakeholders en contrast amb la de les empreses. Es realitza mitjançant entrevista qualitativa, prenent com a mostra una àmplia zona amb països de Llatinoamèrica. Els resultats mostren diferents percepcions entre empreses i stakeholders en l'anàlisi i diagnòstic de la situació actual i en el grau d'implementació i eficàcia de les polítiques de RSC. Des dels stakeholders es demanda major objectivitat i credibilitat en les memòries; consideren que les empreses minimitzen els impactes i enalteixen els seus beneficis i la participació de la comunitat. Per contra, coincideixen en la necessitat d'un model multiactor, amb major participació de la comunitat, i en el paper de les ONGs i els governs en defensa de la comunitat i per evitar conflictes i rebutjos. Els resultats ajuden a la comprensió de les diferents realitats percebudes i / García Ortega, B. (2017). Estrategia y Filantropía, aunando objetivos de negocios y sociales. Un Modelo para analizar los patrones de filantropía estratégica de las empresas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90438 / TESIS
79

Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation

Vitale, Raffaele 03 November 2017 (has links)
The present Ph.D. thesis, primarily conceived to support and reinforce the relation between academic and industrial worlds, was developed in collaboration with Shell Global Solutions (Amsterdam, The Netherlands) in the endeavour of applying and possibly extending well-established latent variable-based approaches (i.e. Principal Component Analysis - PCA - Partial Least Squares regression - PLS - or Partial Least Squares Discriminant Analysis - PLSDA) for complex problem solving not only in the fields of manufacturing troubleshooting and optimisation, but also in the wider environment of multivariate data analysis. To this end, novel efficient algorithmic solutions are proposed throughout all chapters to address very disparate tasks, from calibration transfer in spectroscopy to real-time modelling of streaming flows of data. The manuscript is divided into the following six parts, focused on various topics of interest: Part I - Preface, where an overview of this research work, its main aims and justification is given together with a brief introduction on PCA, PLS and PLSDA; Part II - On kernel-based extensions of PCA, PLS and PLSDA, where the potential of kernel techniques, possibly coupled to specific variants of the recently rediscovered pseudo-sample projection, formulated by the English statistician John C. Gower, is explored and their performance compared to that of more classical methodologies in four different applications scenarios: segmentation of Red-Green-Blue (RGB) images, discrimination of on-/off-specification batch runs, monitoring of batch processes and analysis of mixture designs of experiments; Part III - On the selection of the number of factors in PCA by permutation testing, where an extensive guideline on how to accomplish the selection of PCA components by permutation testing is provided through the comprehensive illustration of an original algorithmic procedure implemented for such a purpose; Part IV - On modelling common and distinctive sources of variability in multi-set data analysis, where several practical aspects of two-block common and distinctive component analysis (carried out by methods like Simultaneous Component Analysis - SCA - DIStinctive and COmmon Simultaneous Component Analysis - DISCO-SCA - Adapted Generalised Singular Value Decomposition - Adapted GSVD - ECO-POWER, Canonical Correlation Analysis - CCA - and 2-block Orthogonal Projections to Latent Structures - O2PLS) are discussed, a new computational strategy for determining the number of common factors underlying two data matrices sharing the same row- or column-dimension is described, and two innovative approaches for calibration transfer between near-infrared spectrometers are presented; Part V - On the on-the-fly processing and modelling of continuous high-dimensional data streams, where a novel software system for rational handling of multi-channel measurements recorded in real time, the On-The-Fly Processing (OTFP) tool, is designed; Part VI - Epilogue, where final conclusions are drawn, future perspectives are delineated, and annexes are included. / La presente tesis doctoral, concebida principalmente para apoyar y reforzar la relación entre la academia y la industria, se desarrolló en colaboración con Shell Global Solutions (Amsterdam, Países Bajos) en el esfuerzo de aplicar y posiblemente extender los enfoques ya consolidados basados en variables latentes (es decir, Análisis de Componentes Principales - PCA - Regresión en Mínimos Cuadrados Parciales - PLS - o PLS discriminante - PLSDA) para la resolución de problemas complejos no sólo en los campos de mejora y optimización de procesos, sino también en el entorno más amplio del análisis de datos multivariados. Con este fin, en todos los capítulos proponemos nuevas soluciones algorítmicas eficientes para abordar tareas dispares, desde la transferencia de calibración en espectroscopia hasta el modelado en tiempo real de flujos de datos. El manuscrito se divide en las seis partes siguientes, centradas en diversos temas de interés: Parte I - Prefacio, donde presentamos un resumen de este trabajo de investigación, damos sus principales objetivos y justificaciones junto con una breve introducción sobre PCA, PLS y PLSDA; Parte II - Sobre las extensiones basadas en kernels de PCA, PLS y PLSDA, donde presentamos el potencial de las técnicas de kernel, eventualmente acopladas a variantes específicas de la recién redescubierta proyección de pseudo-muestras, formulada por el estadista inglés John C. Gower, y comparamos su rendimiento respecto a metodologías más clásicas en cuatro aplicaciones a escenarios diferentes: segmentación de imágenes Rojo-Verde-Azul (RGB), discriminación y monitorización de procesos por lotes y análisis de diseños de experimentos de mezclas; Parte III - Sobre la selección del número de factores en el PCA por pruebas de permutación, donde aportamos una guía extensa sobre cómo conseguir la selección de componentes de PCA mediante pruebas de permutación y una ilustración completa de un procedimiento algorítmico original implementado para tal fin; Parte IV - Sobre la modelización de fuentes de variabilidad común y distintiva en el análisis de datos multi-conjunto, donde discutimos varios aspectos prácticos del análisis de componentes comunes y distintivos de dos bloques de datos (realizado por métodos como el Análisis Simultáneo de Componentes - SCA - Análisis Simultáneo de Componentes Distintivos y Comunes - DISCO-SCA - Descomposición Adaptada Generalizada de Valores Singulares - Adapted GSVD - ECO-POWER, Análisis de Correlaciones Canónicas - CCA - y Proyecciones Ortogonales de 2 conjuntos a Estructuras Latentes - O2PLS). Presentamos a su vez una nueva estrategia computacional para determinar el número de factores comunes subyacentes a dos matrices de datos que comparten la misma dimensión de fila o columna y dos planteamientos novedosos para la transferencia de calibración entre espectrómetros de infrarrojo cercano; Parte V - Sobre el procesamiento y la modelización en tiempo real de flujos de datos de alta dimensión, donde diseñamos la herramienta de Procesamiento en Tiempo Real (OTFP), un nuevo sistema de manejo racional de mediciones multi-canal registradas en tiempo real; Parte VI - Epílogo, donde presentamos las conclusiones finales, delimitamos las perspectivas futuras, e incluimos los anexos. / La present tesi doctoral, concebuda principalment per a recolzar i reforçar la relació entre l'acadèmia i la indústria, es va desenvolupar en col·laboració amb Shell Global Solutions (Amsterdam, Països Baixos) amb l'esforç d'aplicar i possiblement estendre els enfocaments ja consolidats basats en variables latents (és a dir, Anàlisi de Components Principals - PCA - Regressió en Mínims Quadrats Parcials - PLS - o PLS discriminant - PLSDA) per a la resolució de problemes complexos no solament en els camps de la millora i optimització de processos, sinó també en l'entorn més ampli de l'anàlisi de dades multivariades. A aquest efecte, en tots els capítols proposem noves solucions algorítmiques eficients per a abordar tasques dispars, des de la transferència de calibratge en espectroscopia fins al modelatge en temps real de fluxos de dades. El manuscrit es divideix en les sis parts següents, centrades en diversos temes d'interès: Part I - Prefaci, on presentem un resum d'aquest treball de recerca, es donen els seus principals objectius i justificacions juntament amb una breu introducció sobre PCA, PLS i PLSDA; Part II - Sobre les extensions basades en kernels de PCA, PLS i PLSDA, on presentem el potencial de les tècniques de kernel, eventualment acoblades a variants específiques de la recentment redescoberta projecció de pseudo-mostres, formulada per l'estadista anglés John C. Gower, i comparem el seu rendiment respecte a metodologies més clàssiques en quatre aplicacions a escenaris diferents: segmentació d'imatges Roig-Verd-Blau (RGB), discriminació i monitorització de processos per lots i anàlisi de dissenys d'experiments de mescles; Part III - Sobre la selecció del nombre de factors en el PCA per proves de permutació, on aportem una guia extensa sobre com aconseguir la selecció de components de PCA a través de proves de permutació i una il·lustració completa d'un procediment algorítmic original implementat per a la finalitat esmentada; Part IV - Sobre la modelització de fonts de variabilitat comuna i distintiva en l'anàlisi de dades multi-conjunt, on discutim diversos aspectes pràctics de l'anàlisis de components comuns i distintius de dos blocs de dades (realitzat per mètodes com l'Anàlisi Simultània de Components - SCA - Anàlisi Simultània de Components Distintius i Comuns - DISCO-SCA - Descomposició Adaptada Generalitzada en Valors Singulars - Adapted GSVD - ECO-POWER, Anàlisi de Correlacions Canòniques - CCA - i Projeccions Ortogonals de 2 blocs a Estructures Latents - O2PLS). Presentem al mateix temps una nova estratègia computacional per a determinar el nombre de factors comuns subjacents a dues matrius de dades que comparteixen la mateixa dimensió de fila o columna, i dos plantejaments nous per a la transferència de calibratge entre espectròmetres d'infraroig proper; Part V - Sobre el processament i la modelització en temps real de fluxos de dades d'alta dimensió, on dissenyem l'eina de Processament en Temps Real (OTFP), un nou sistema de tractament racional de mesures multi-canal registrades en temps real; Part VI - Epíleg, on presentem les conclusions finals, delimitem les perspectives futures, i incloem annexos. / Vitale, R. (2017). Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90442 / TESIS
80

Quality by Design through multivariate latent structures

Palací López, Daniel Gonzalo 14 January 2019 (has links)
La presente tesis doctoral surge ante la necesidad creciente por parte de la mayoría de empresas, y en especial (pero no únicamente) aquellas dentro de los sectores farmacéu-tico, químico, alimentación y bioprocesos, de aumentar la flexibilidad en su rango ope-rativo para reducir los costes de fabricación, manteniendo o mejorando la calidad del producto final obtenido. Para ello, esta tesis se centra en la aplicación de los conceptos del Quality by Design para la aplicación y extensión de distintas metodologías ya exis-tentes y el desarrollo de nuevos algoritmos que permitan la implementación de herra-mientas adecuadas para el diseño de experimentos, el análisis multivariante de datos y la optimización de procesos en el ámbito del diseño de mezclas, pero sin limitarse ex-clusivamente a este tipo de problemas. Parte I - Prefacio, donde se presenta un resumen del trabajo de investigación realiza-do y los objetivos principales que pretende abordar y su justificación, así como una introducción a los conceptos más importantes relativos a los temas tratados en partes posteriores de la tesis, tales como el diseño de experimentos o diversas herramientas estadísticas de análisis multivariado. Parte II - Optimización en el diseño de mezclas, donde se lleva a cabo una recapitu-lación de las diversas herramientas existentes para el diseño de experimentos y análisis de datos por medios tradicionales relativos al diseño de mezclas, así como de algunas herramientas basadas en variables latentes, tales como la Regresión en Mínimos Cua-drados Parciales (PLS). En esta parte de la tesis también se propone una extensión del PLS basada en kernels para el análisis de datos de diseños de mezclas, y se hace una comparativa de las distintas metodologías presentadas. Finalmente, se incluye una breve presentación del programa MiDAs, desarrollado con la finalidad de ofrecer a sus usuarios la posibilidad de comparar de forma sencilla diversas metodologías para el diseño de experimentos y análisis de datos para problemas de mezclas. Parte III - Espacio de diseño y optimización a través del espacio latente, donde se aborda el problema fundamental dentro de la filosofía del Quality by Design asociado a la definición del llamado 'espacio de diseño', que comprendería todo el conjunto de posibles combinaciones de condiciones de proceso, materias primas, etc. que garanti-zan la obtención de un producto con la calidad deseada. En esta parte también se trata el problema de la definición del problema de optimización como herramienta para la mejora de la calidad, pero también para la exploración y flexibilización de los procesos productivos, con el objeto de definir un procedimiento eficiente y robusto de optimiza-ción que se adapte a los diversos problemas que exigen recurrir a dicha optimización. Parte IV - Epílogo, donde se presentan las conclusiones finales, la consecución de objetivos y posibles líneas futuras de investigación. En esta parte se incluyen además los anexos. / Aquesta tesi doctoral sorgeix davant la necessitat creixent per part de la majoria d'em-preses, i especialment (però no únicament) d'aquelles dins dels sectors farmacèutic, químic, alimentari i de bioprocessos, d'augmentar la flexibilitat en el seu rang operatiu per tal de reduir els costos de fabricació, mantenint o millorant la qualitat del producte final obtingut. La tesi se centra en l'aplicació dels conceptes del Quality by Design per a l'aplicació i extensió de diferents metodologies ja existents i el desenvolupament de nous algorismes que permeten la implementació d'eines adequades per al disseny d'ex-periments, l'anàlisi multivariada de dades i l'optimització de processos en l'àmbit del disseny de mescles, però sense limitar-se exclusivament a aquest tipus de problemes. Part I- Prefaci, en què es presenta un resum del treball de recerca realitzat i els objec-tius principals que pretén abordar i la seua justificació, així com una introducció als conceptes més importants relatius als temes tractats en parts posteriors de la tesi, com ara el disseny d'experiments o diverses eines estadístiques d'anàlisi multivariada. Part II - Optimització en el disseny de mescles, on es duu a terme una recapitulació de les diverses eines existents per al disseny d'experiments i anàlisi de dades per mit-jans tradicionals relatius al disseny de mescles, així com d'algunes eines basades en variables latents, tals com la Regressió en Mínims Quadrats Parcials (PLS). En aquesta part de la tesi també es proposa una extensió del PLS basada en kernels per a l'anàlisi de dades de dissenys de mescles, i es fa una comparativa de les diferents metodologies presentades. Finalment, s'inclou una breu presentació del programari MiDAs, que ofe-reix la possibilitat als usuaris de comparar de forma senzilla diverses metodologies per al disseny d'experiments i l'anàlisi de dades per a problemes de mescles. Part III- Espai de disseny i optimització a través de l'espai latent, on s'aborda el problema fonamental dins de la filosofia del Quality by Design associat a la definició de l'anomenat 'espai de disseny', que comprendria tot el conjunt de possibles combina-cions de condicions de procés, matèries primeres, etc. que garanteixen l'obtenció d'un producte amb la qualitat desitjada. En aquesta part també es tracta el problema de la definició del problema d'optimització com a eina per a la millora de la qualitat, però també per a l'exploració i flexibilització dels processos productius, amb l'objecte de definir un procediment eficient i robust d'optimització que s'adapti als diversos pro-blemes que exigeixen recórrer a aquesta optimització. Part IV- Epíleg, on es presenten les conclusions finals i la consecució d'objectius i es plantegen possibles línies futures de recerca arran dels resultats de la tesi. En aquesta part s'inclouen a més els annexos. / The present Ph.D. thesis is motivated by the growing need in most companies, and specially (but not solely) those in the pharmaceutical, chemical, food and bioprocess fields, to increase the flexibility in their operating conditions in order to reduce production costs while maintaining or even improving the quality of their products. To this end, this thesis focuses on the application of the concepts of the Quality by Design for the exploitation and development of already existing methodologies, and the development of new algorithms aimed at the proper implementation of tools for the design of experiments, multivariate data analysis and process optimization, specially (but not only) in the context of mixture design. Part I - Preface, where a summary of the research work done, the main goals it aimed at and their justification, are presented. Some of the most relevant concepts related to the developed work in subsequent chapters are also introduced, such as those regarding design of experiments or latent variable-based multivariate data analysis techniques. Part II - Mixture design optimization, in which a review of existing mixture design tools for the design of experiments and data analysis via traditional approaches, as well as some latent variable-based techniques, such as Partial Least Squares (PLS), is provided. A kernel-based extension of PLS for mixture design data analysis is also proposed, and the different available methods are compared to each other. Finally, a brief presentation of the software MiDAs is done. MiDAs has been developed in order to provide users with a tool to easily approach mixture design problems for the construction of Designs of Experiments and data analysis with different methods and compare them. Part III - Design Space and optimization through the latent space, where one of the fundamental issues within the Quality by Design philosophy, the definition of the so-called 'design space' (i.e. the subspace comprised by all possible combinations of process operating conditions, raw materials, etc. that guarantee obtaining a product meeting a required quality standard), is addressed. The problem of properly defining the optimization problem is also tackled, not only as a tool for quality improvement but also when it is to be used for exploration of process flexibilisation purposes, in order to establish an efficient and robust optimization method in accordance with the nature of the different problems that may require such optimization to be resorted to. Part IV - Epilogue, where final conclusions are drawn, future perspectives suggested, and annexes are included. / Palací López, DG. (2018). Quality by Design through multivariate latent structures [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/115489 / TESIS

Page generated in 0.4203 seconds