• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • 36
  • 1
  • Tagged with
  • 104
  • 98
  • 98
  • 30
  • 26
  • 18
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

On the effective deployment of current machine translation technology

González Rubio, Jesús 03 June 2014 (has links)
Machine translation is a fundamental technology that is gaining more importance each day in our multilingual society. Companies and particulars are turning their attention to machine translation since it dramatically cuts down their expenses on translation and interpreting. However, the output of current machine translation systems is still far from the quality of translations generated by human experts. The overall goal of this thesis is to narrow down this quality gap by developing new methodologies and tools that improve the broader and more efficient deployment of machine translation technology. We start by proposing a new technique to improve the quality of the translations generated by fully-automatic machine translation systems. The key insight of our approach is that different translation systems, implementing different approaches and technologies, can exhibit different strengths and limitations. Therefore, a proper combination of the outputs of such different systems has the potential to produce translations of improved quality. We present minimum Bayes¿ risk system combination, an automatic approach that detects the best parts of the candidate translations and combines them to generate a consensus translation that is optimal with respect to a particular performance metric. We thoroughly describe the formalization of our approach as a weighted ensemble of probability distributions and provide efficient algorithms to obtain the optimal consensus translation according to the widespread BLEU score. Empirical results show that the proposed approach is indeed able to generate statistically better translations than the provided candidates. Compared to other state-of-the-art systems combination methods, our approach reports similar performance not requiring any additional data but the candidate translations. Then, we focus our attention on how to improve the utility of automatic translations for the end-user of the system. Since automatic translations are not perfect, a desirable feature of machine translation systems is the ability to predict at run-time the quality of the generated translations. Quality estimation is usually addressed as a regression problem where a quality score is predicted from a set of features that represents the translation. However, although the concept of translation quality is intuitively clear, there is no consensus on which are the features that actually account for it. As a consequence, quality estimation systems for machine translation have to utilize a large number of weak features to predict translation quality. This involves several learning problems related to feature collinearity and ambiguity, and due to the ¿curse¿ of dimensionality. We address these challenges by adopting a two-step training methodology. First, a dimensionality reduction method computes, from the original features, the reduced set of features that better explains translation quality. Then, a prediction model is built from this reduced set to finally predict the quality score. We study various reduction methods previously used in the literature and propose two new ones based on statistical multivariate analysis techniques. More specifically, the proposed dimensionality reduction methods are based on partial least squares regression. The results of a thorough experimentation show that the quality estimation systems estimated following the proposed two-step methodology obtain better prediction accuracy that systems estimated using all the original features. Moreover, one of the proposed dimensionality reduction methods obtained the best prediction accuracy with only a fraction of the original features. This feature reduction ratio is important because it implies a dramatic reduction of the operating times of the quality estimation system. An alternative use of current machine translation systems is to embed them within an interactive editing environment where the system and a human expert collaborate to generate error-free translations. This interactive machine translation approach have shown to reduce supervision effort of the user in comparison to the conventional decoupled post-edition approach. However, interactive machine translation considers the translation system as a passive agent in the interaction process. In other words, the system only suggests translations to the user, who then makes the necessary supervision decisions. As a result, the user is bound to exhaustively supervise every suggested translation. This passive approach ensures error-free translations but it also demands a large amount of supervision effort from the user. Finally, we study different techniques to improve the productivity of current interactive machine translation systems. Specifically, we focus on the development of alternative approaches where the system becomes an active agent in the interaction process. We propose two different active approaches. On the one hand, we describe an active interaction approach where the system informs the user about the reliability of the suggested translations. The hope is that this information may help the user to locate translation errors thus improving the overall translation productivity. We propose different scores to measure translation reliability at the word and sentence levels and study the influence of such information in the productivity of an interactive machine translation system. Empirical results show that the proposed active interaction protocol is able to achieve a large reduction in supervision effort while still generating translations of very high quality. On the other hand, we study an active learning framework for interactive machine translation. In this case, the system is not only able to inform the user of which suggested translations should be supervised, but it is also able to learn from the user-supervised translations to improve its future suggestions. We develop a value-of-information criterion to select which automatic translations undergo user supervision. However, given its high computational complexity, in practice we study different selection strategies that approximate this optimal criterion. Results of a large scale experimentation show that the proposed active learning framework is able to obtain better compromises between the quality of the generated translations and the human effort required to obtain them. Moreover, in comparison to a conventional interactive machine translation system, our proposal obtained translations of twice the quality with the same supervision effort. / González Rubio, J. (2014). On the effective deployment of current machine translation technology [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37888
82

Gestión de la operación, vigilancia y mantenimiento de equipos de seguridad de centrales nucleares a corto y largo plazo

Martón Lluch, Isabel 09 December 2015 (has links)
[EN] In the last years, several studies have been developed in order to guarantee safety operation of Nuclear Power Plants (NPP), for both, the design plant life and for the Long Term Operation (LTO). In those situations, NPP must face the Periodic Safety Review (PSR). An important part of PRS involves the evaluation of risk impact of Structures, Systems and Components (SSC) ageing and how current asset management programs, e.g. maintenance and testing programs, are successful to achieve the objective of allowing a safe operation. In order to perform this evaluation, it is necessary to extend the current Probabilistic Safety Assessment (PSA) models to take into account, not only equipment ageing, but also maintenance and testing policies. This Ph Dissertation aims to help in NPP safety evaluation in the framework of PSR in both, design life and long-term operation. In this context, two main objectives are proposed. The first one is based on the proposal and application of risk-informed decision making methodology to evaluate the impact of changes to licensing bases, particularly in the ETF, using PSA models and considering aleatory uncertainties. The second is based on the adaptation and development of SSC reliability and availability models to consider not only the effect of aging, but also the effect of components management policies, in particular the testing and maintenance. Finally, these models have been joined to APS in order to obtain a new and extended APS (APSE). Some application cases, for both, risk-informed decision making on changes of licensing bases and for the use of the new APSA in the process of decision making, are provided in order to assess the feasibility and applicability of the new methodologies proposed The work of this thesis is part of the research supported by the Ministry of Economy and Competitiveness in the project ENE2013-45540-R, "Development of Advanced Surveillance Requirements with a focus on safety and competitiveness of Nuclear Power Plants operation in the long term", and in the Doctoral Fellow ENE2010-17449. / [ES] En los últimos años se han desarrollado diversos estudios enfocados a garantizar la operación segura de las centrales nucleares (CCNN), tanto en la operación dentro de la vida de diseño como en la operación a largo plazo. En ambos casos, las centrales deben de afrontar una Revisión Periódica de Seguridad (RPS), la cual, involucra, entre otras tareas, la evaluación del impacto en el riesgo del envejecimiento de Estructuras, Sistemas y Componentes (ESC) y del papel de los programas de gestión de activos, tales como los programas de vigilancia y de mantenimiento de la central. Para llevar a cabo esta evaluación, urge la necesidad de extender los modelos actuales del Análisis Probabilista de Seguridad (APS) para que tenga en cuenta de forma explícita no sólo el efecto del envejecimiento sino también el efecto de las políticas de gestión de componentes activos, en particular, las pruebas y mantenimientos. La presente tesis doctoral pretende servir de ayuda en las evaluaciones de la seguridad de las CCNN, y en el contexto de las RPS, tanto en la operación dentro de la vida de diseño como en la operación a largo plazo. En este contexto se plantean dos objetivos principales. El primero, se basa en la propuesta y aplicación de una metodología de toma de decisiones basada en la utilización de los modelos y datos del APS para llevar a cabo la evaluación del impacto en el riesgo de cambios en las bases de licencia, concretamente en las ETF de las CCNN, en presencia de incertidumbres. El segundo, se basa en la adaptación y desarrollo de los modelos de fiabilidad y disponibilidad convencionales de ESC para que consideren de forma explícita no sólo el efecto del envejecimiento, sino también el efecto de las políticas de gestión de componentes activos, en particular de las pruebas y mantenimiento. Finalmente, estos modelos se han incorporado al APS con el objetivo de obtener un nuevo APS Extendido (APSE). Tanto para la toma de decisiones informada en el riesgo para cambios en las bases de licencia, cómo para la toma de decisiones utilizando el nuevo modelo extendido, APSE, se aportan casos de aplicación que demuestran la viabilidad y aplicabilidad de los mismos. El trabajo realizado en la presente tesis doctoral se enmarca dentro de la línea de investigación financiada por el Ministerio de Economía y Competitividad en el proyecto ENE2013-45540-R, "Desarrollo de Requisitos de vigilancia avanzados enfocados a la seguridad y competitividad de la operación a largo plazo de centrales nucleares" y en la beca de Formación de Personal Investigador (FPI) ENE2010-17449. / [CA] En els últims anys s'han desenvolupat diversos estudis enfocats a garantir l'operació segura de les centrals nuclears (CCNN), tant en l'operació dins de la vida de disseny com en l'operació a llarg termini. En ambdos casos, les centrals han d'afrontar una Revisió Periòdica de Seguretat (RPS), la qual, involucra, entre altres tasques, l'avaluació de l'impacte en el risc de l'envelliment d'Estructures, Sistemes i components (ESC) i del paper dels programes de gestió d'actius, com els programes de vigilància i de manteniment de la central. Per dur a terme aquesta avaluació, urgeix la necessitat d'estendre els models actuals de l'Anàlisi Probabilista de Seguretat (APS) perquè tinga en compte de manera explícita no sols l'efecte de l'envelliment sinó també l'efecte de les polítiques de gestió de components actius, en particular, les proves i manteniments. La present tesi doctoral pretén servir d'ajuda en les avaluacions de la seguretat de les CCNN, i en el context de les RPS, tant en l'operació dins de la vida de disseny com en l'operació a llarg termini. En aquest context es plantegen dos objectius principals. El primer, es basa en la proposta i aplicació d'una metodologia de presa de decisions basada en la utilització dels models i dades de l'APS per a dur a terme l'avaluació de l'impacte en el risc de canvis en les bases de llicència, concretament en les ETF de les CCNN, en presència d'incerteses. El segon, es basa en l'adaptació i desenvolupament dels models de fiabilitat i disponibilitat convencionals d'estructures, sistemes i components perquè considerin de forma explícita no només l'efecte de l'envelliment, sinó també l'efecte de les polítiques de gestió de components actius, en particular de les proves i manteniment. Finalment, aquests models s'han incorporat al APS amb l'objectiu d'obtenir un nou APS Estès (APSE). Tant per a la presa de decisions informada en el risc per canvis en les bases de llicència com per a la presa de decisions utilitzant el nou model estès, APSE, s'aporten casos d'aplicació que demostren la viabilitat i aplicabilitat dels mateixos. El treball realitzat en la present tesi doctoral s'emmarca dins de la línia d'investigació finançada pel Ministeri d'Economia i Competitivitat en el projecte ENE2013-45540-R, "Desarrollo de Requisitos de vigilancia avanzados enfocados a la seguridad y competitividad de la operación a largo plazo de centrales nucleares" i en la beca de Formació de Personal Investigador (FPI) ENE2010-17449. / Martón Lluch, I. (2015). Gestión de la operación, vigilancia y mantenimiento de equipos de seguridad de centrales nucleares a corto y largo plazo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58615
83

Propuesta de un nuevo procedimiento basado en la norma ISO 9001 para la gestión conjunta de la norma ISO 31000, la filosofía Kaizen y la herramienta Lean Manufacturing en pymes industriales de la Comunidad Valenciana.

Palacios Guillem, María 23 December 2021 (has links)
[ES] Debido a la globalización y al mercado competitivo actual, a la gran variedad de productos y servicios, a los clientes cada vez más exigentes y que demandan productos de alta calidad al mejor precio y a que la tecnología está continuamente mejorando; la mayoría de las pymes industriales decidieron implementar en sus instalaciones normas y sistemas de gestión con la intención de perfeccionar sus procesos y mejorar su nivel de competitividad y así asegurar su permanencia en su sector del mercado. Esto llevó a que una gran cantidad de empresas implementaran sistemas de gestión en sus instalaciones. Lo que a su vez provocó la necesidad y urgencia de crear nuevos sistemas de gestión relacionados con diferentes aspectos que pudieran afectar al desempeño organizacional y, por tanto, a la competitividad de la empresa. Todo esto se traduce en una gran cantidad de empresas que poseen en sus instalaciones varios sistemas de gestión independientes, con los que gestionar aspectos tan diversos como la calidad, el medio ambiente o la salud y la seguridad de sus trabajadores. Sin embargo, existe la posibilidad de administrar varios sistemas de gestión como si fueran uno solo, mediante los sistemas integrados de gestión. Con estos, las empresas pueden ayudarse de las sinergias que presentan en común para obtener una gestión más eficiente y sencilla que si se administraran por separado cada sistema de gestión. No obstante, al llevar a cabo una revisión literaria completa, se apreció que ningún sistema integrado de gestión está relacionado conjuntamente con los aspectos de calidad, mejora continua, riesgos y que ayude a eliminar aquellas actividades que no aportan valor añadido a la empresa. Es por este motivo por lo que el principal objetivo de la presente Tesis Doctoral es crear una metodología que integre las normas ISO 9001:2015 e ISO 31000:2009, Kaizen y Lean Manufacturing. Con esta metodología se intenta ofrecer ayuda a las empresas para mejorar la calidad de sus productos, afrontar los riesgos que pueden encontrarse diariamente y, al mismo tiempo, mejorar continuamente y prescindir de aquellas herramientas y actividades que no generan valor para la empresa. Para poder desarrollar dicha metodología de integración, una vez terminada la revisión literaria, se realizó un análisis empírico univariante y bivariante en el que se empleó una muestra de treinta pymes de la Comunidad Valenciana y una muestra de nueve empresas españolas ubicadas en la República Checa con dos o más sistemas de gestión implementados. De este estudio se concluye que la mayoría de las pymes examinadas han integrado sus sistemas de gestión examinando los elementos comunes de los sistemas de gestión que querían integrar y mediante su propio mapa de procesos. Esta integración tardó entre uno y dos años y en el que afrontaron barreras como "Falta de recursos humanos", "Falta de colaboración entre los departamentos" y "Empleados poco motivados". Gracias al sistema integrado de gestión, las empresas consiguieron mejorar su imagen externa, perfeccionar la calidad de sus productos y aumentar su ventaja competitiva en el mercado y su eficiencia organizacional. También se observó que la totalidad de las pymes valencianas de la muestra, antes de empezar con el proceso de integración y en un plan de integración, determinaron "los Objetivos de calidad y la planificación para lograrlos", la "Gestión de la Infraestructura" y el "Control de las no-conformidades". Mientras que las pymes españolas ubicadas en la República Checa crearon un plan de integración en el que determinaron el "Control de las no conformidades", la "Información documentada (documentación, registro)", los "Roles, responsabilidades, autoridades" de cada trabajador, la "Revisión del sistema" y las "Acciones preventivas y correctivas". / [CAT] A causa de la globalització i al mercat competitiu actual, a la gran varietat de productes i serveis, als clients cada vegada més exigents i que demanen productes d'alta qualitat al millor preu i a que la tecnologia està contínuament millorant; la majoria de les pimes industrials van decidir implementar en les seves instal·lacions normes i sistemes de gestió amb la intenció de perfeccionar els seus processos i millorar el seu nivell de competitivitat, per així assegurar la seva permanència en el seu sector del mercat. Això va fer que una gran quantitat d'empreses implementaren sistemes de gestió en les seves instal·lacions. El que al seu torn va provocar la necessitat i urgència de crear nous sistemes de gestió relacionats amb diferents aspectes que poguessen afectar a l'acompliment organitzacional i, per tant, a la competitivitat de l'empresa. Tot això es tradueix en una gran quantitat d'empreses que posseeixen diversos sistemes de gestió independents, amb els quals gestionar aspectes tan diversos com la qualitat, el medi ambient o la salut i la seguretat dels seus treballadors. No obstant això, hi ha la possibilitat d'administrar diversos sistemes de gestió com si foren un, mitjançant els sistemes integrats de gestió. Amb aquests, les empreses poden ajudar-se de les sinergies que presenten en comú per obtenir una gestió més eficient i senzilla que si s'administraren per separat cada sistema de gestió. No obstant això, en dur a terme una revisió literària completa, es va apreciar que cap sistema integrat de gestió està relacionat conjuntament amb els aspectes de qualitat, millora contínua, riscos i que ajude a eliminar aquelles activitats que no aporten valor afegit a l'empresa. És per aquest motiu pel que el principal objectiu de la present Tesi Doctoral és crear una metodologia que integre les normes ISO 9001: 2015 i ISO 31000: 2009, la filosofia Kaizen i l'eina Lean Manufacturing. Amb aquesta metodologia es pretén ajudar a les empreses a millorar la qualitat dels seus productes, afrontar els riscos que poden trobar-se diàriament i, a la vegada, millorar contínuament i prescindir d'aquelles eines i activitats que no generen valor per a l'empresa. Per poder desenvolupar aquesta metodologia d'integració, una vegada acabada la revisió literària, s'ha realitzat una anàlisi empírica univariant i bivariant en la que s'utilitza una mostra de trenta pimes de la Comunitat Valenciana i una mostra de nou pimes espanyoles situades a la República Txeca amb dos o més sistemes de gestió implementats. D'aquests anàlisis es conclou que la majoria de les pimes estudiades han integrat els seus sistemes de gestió analitzant els elements comuns dels sistemes de gestió que volien integrar i mitjançant el seu propi mapa de processos. Aquest procés d'integració va durar entre un i dos anys i en el que van afrontar barreres com "Falta de recursos humans", "Falta de col·laboració entre els departaments" i "Empleats poc motivats". Però gràcies al sistema integrat de gestió, les empreses van aconseguir millorar la seua imatge externa, perfeccionar la qualitat dels seus productes i augmentar el seu avantatge competitiu en el mercat i la seua eficiència organitzacional. També s'ha observat que, abans de començar amb el procés d'integració i en un pla d'integració, la majoria de les pimes valencianes de la mostra van determinar "els objectius de qualitat i la planificació per a aconseguir-los", la "Gestió de la Infraestructura" i el "Control de les no-conformitats". Mentre que les pimes espanyoles situades a la República Txeca van crear un pla d'integració en el que van determinar el "Control de les no conformitats", la "Informació documentada (documentació, registre)", els "Rols, responsabilitats, autoritats" de cada treballador, la "Revisió del sistema" i les "Accions preventives i correctives". / [EN] Due to globalisation and the current competitive market, the wide variety of products and services, customers are increasingly demanding and ask for high-quality products at the best price and technology is continuously improving; most industrial SMEs decided to implement management standards and systems in their facilities to improve processes and their level of competitiveness, to ensure their permanence in their market sector. This led many companies to implement management systems in their facilities. Which in turn, caused the need and urgency to create new management systems related to different aspects that could affect organisational performance and, therefore, the company competitiveness. All this means that many companies have several independent management systems to manage aspects as diverse as quality, the environment, or the health and safety of its workers. However, there is a possibility of running several management systems as if they were only one, through integrated management systems. With them, companies can benefit from the common synergies presented by the systems to obtain more efficient and simple management than if they ran each management system separately. Nevertheless, after conducting a complete literary review, it was found that no integrated management system is related to aspects of quality, continuous improvement, risks and, simultaneously, helps eliminate those activities that do not add value to the company. This reason motivates that the principal purpose of this essay is to design a method that integrates the ISO 9001:2015 standard, the Lean Manufacturing tool, the Kaizen philosophy of continuous improvement, and the ISO 31000:2009 standard. This methodology can help companies to improve the quality of their products and face the risks that can be found daily and, at the same time, continuously improve and disregard those tools and activities that do not generate value for the company. To develop the integration methodology after the literary review is conducted did a univariate and bivariate empirical analysis was done using a sample of thirty SMEs from the Valencian Community and a sample of nine Spanish companies located in the Czech Republic, in all cases implementing two or more management systems. The conclusion from this study is that most of the SMEs in the sample have integrated their management systems analysing the common elements of the management systems that they wanted to integrate and through their own process map. This process of integration lasted between one and two years and in which they encountered barriers such as "Lack of human resources", "Lack of collaboration between the departments" and "Employees with little motivation". Thanks to the integrated management system, the companies managed to improve their external image, the quality of their products and increase their competitive advantage in the market, and their organizational efficiency. It was also observed that, before starting the process of integration and in an integration plan, most of the Valencian SMEs from the sample determined "the objectives of quality and the planning to achieve them", "Infrastructure Management" and "Control of non-conformities". While the Spanish SMEs located in the Czech Republic created an integration plan in which they determined the "Control of non-conformities", the "Documented information (documentation, registration)", the "Roles, responsibilities, authorities" of each worker, the "System Review" and the "Preventive and Corrective Actions". / Palacios Guillem, M. (2021). Propuesta de un nuevo procedimiento basado en la norma ISO 9001 para la gestión conjunta de la norma ISO 31000, la filosofía Kaizen y la herramienta Lean Manufacturing en pymes industriales de la Comunidad Valenciana [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/178979
84

Use of Statistical Methods for the Analysis of Educational Data: the Role of ICTs in the Educational Context

Gómez Fernández, Nerea María 21 February 2022 (has links)
[ES] En las últimas décadas, la intensificación del uso de las tecnologías de la información y la comunicación (TIC) ha supuesto grandes cambios en nuestra forma de vida. En este contexto de intensa y creciente digitalización, esta tesis doctoral estudia el papel que juegan las TIC como un factor determinante del rendimiento académico de los estudiantes de educación secundaria, así como los factores que propician el uso de las TIC en el aula por parte de los docentes. La tesis se compone de tres capítulos: (1) en el primero de ellos, se analiza la relación entre distintos tipos de uso de las TIC en el contexto social y educativo y el rendimiento académico; (2) en el capítulo dos, se centra la atención en el impacto que tiene sobre el rendimiento académico el uso de las TIC en el aula para realizar tareas y ejercicios; (3) y en el capítulo tres se analizan los factores que determinan la frecuencia de uso de las TIC en el aula por parte de los docentes. Para realizar estos análisis, se estudian datos procedentes de evaluaciones educativas internacionales y nacionales mediante la aplicación de distintos métodos estadísticos: modelos multinivel, método de variables instrumentales, método de emparejamiento por puntaje de propensión, regresiones cuantílicas y técnica de imputación multivariante por ecuaciones encadenadas. Los resultados alcanzados en las distintas investigaciones proporcionan evidencia empírica novedosa que permite elaborar recomendaciones en materia de política educativa, así como abrir futuras líneas de investigación que permitirán complementar los resultados de esta tesis doctoral. / [CA] En les últimes dècades, la intensificació de l'ús de les tecnologies de la informació i la comunicació (TIC) ha suposat grans canvis en la nostra forma de vida. En aquest context d'intensa i creixent digitalització, aquesta tesi doctoral estudia el paper que juguen les TIC com un factor determinant del rendiment acadèmic dels estudiants d'educació secundària, així com els factors que propicien l'ús de les TIC a l'aula per part dels docents. La tesi es compon de tres capítols: (1) en el primer d'ells, s'analitza la relació entre diferents tipus d'ús de les TIC en el context social i educatiu i el rendiment acadèmic; (2) en el capítol dos, se centra l'atenció en l'impacte que té sobre el rendiment acadèmic l'ús de les TIC a l'aula per a fer tasques i exercicis; (3) i en el capítol tres s'analitzen els factors que determinen la freqüència d'ús de les TIC a l'aula per part dels docents. Per a realitzar aquestes anàlisis, s'estudien dades procedents d'avaluacions educatives internacionals i nacionals mitjançant l'aplicació de diferents mètodes estadístics: models multinivell, mètode de variables instrumentals, mètode d'aparellament per puntuació de propensió, regressió quantílica i tècnica d'imputació multivariant per equacions encadenades. Els resultats aconseguits en les diferents investigacions proporcionen evidència empírica nova que permet elaborar recomanacions en matèria de política educativa, així com obrir futures línies d'investigació que permetran complementar els resultats d'aquesta tesi doctoral. / [EN] In recent decades, the intensification of the use of information and communication technologies (ICT) has brought about major changes in our way of life. In this context of intense and increasing digitalization, this doctoral thesis studies the role of ICT as a determinant of the academic performance of secondary school students, as well as the factors that favour the use of ICT in the classroom by teachers. The thesis consists of three chapters: (1) in the first one, the relationship between different types of ICT use in the social and educational context and academic performance is analysed; (2) in chapter two, attention is focused on the impact on academic performance of the use of ICT in the classroom to carry out tasks and exercises; (3) and in chapter three, the factors that determine the frequency of ICT use in the classroom by teachers are analysed. In order to carry out these analyses, data from international and national educational assessments are studied by applying different statistical methods: multilevel models, instrumental variables method, propensity score matching method, quantile regressions and multivariate imputation technique by chained equations. The results achieved in the different investigations provide novel empirical evidence that allows us to elaborate recommendations for educational policy, as well as to open future lines of research that will allow us to complement the results of this doctoral thesis. / Mi agradecimiento al Ministerio de Universidades por su apuesta en la financiación de mi proyecto de investigación mediante el contrato FPU16/04571 y por permitirme dedicarme durante estos cuatro años exclusivamente a la investigación y a la docencia universitaria. Agradezco también al Ministerio de Economía y Competitividad y al doctor Jorge Calero, investigador principal del proyecto “Evaluación de intervenciones educativas para la mejora de la calidad educativa”, por permitirme participar como miembro del equipo de trabajo en el proyecto EDU2016-76414-R y financiar la presentación de mis investigaciones en congresos nacionales e internacionales. Igualmente, agradezco a la Fundación Sabadell por otorgarme una ayuda a la investigación científica en la convocatoria 2020-2021. / Gómez Fernández, NM. (2022). Use of Statistical Methods for the Analysis of Educational Data: the Role of ICTs in the Educational Context [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181000
85

Multi-omic data integration study of immune system alterations in the development of minimal hepatic encephalopathy in patients with liver cirrhosis

Rubio Martínez-Abarca, María Teresa 01 September 2022 (has links)
[ES] El objetivo principal de este trabajo fue conocer las alteraciones inmunológicas asociadas a la inflamación periférica que desencadenan deterioro cognitivo en los pacientes cirróticos encefalopatía hepática mínima (EHM). Estos cambios pueden ser monitorizados como cascadas de señalización a lo largo de los tipos celulares del sistema inmune. Como estudio preliminar, se analizaron los cambios en la expresión génica (transcriptómica), los metabolitos de plasma (metabolómica) y un panel de citoquinas extracelulares en muestras de sangre de pacientes cirróticos con y sin EHM. Los resultados del análisis transcriptómico apoyaron la hipótesis de alternancias en las poblaciones celulares de linfocitos Th1/Th2 y Th17 como principales impulsores de la EHM. El análisis clúster de las moléculas del suero dio como resultado 6 grupos de compuestos químicamente similares. También se ha realizado un análisis de integración multiómica para detectar las relaciones entre los componentes intra y extracelulares que podrían contribuir a la inducción del deterioro cognitivo. Los resultados de este análisis integrativo sugirieron una relación entre las citocinas CCL20, CX3CL1, CXCL13, IL-15, IL-22 e IL-6 con la alteración de la quimiotaxis, así como un vínculo entre los fosfolípidos insaturados de cadena larga y el aumento del transporte de ácidos grasos y la producción de prostaglandinas. Estudios previos sugieren que un cambio en la inflamación periférica, orquestado principalmente por las células T CD4+, es un factor crítico que desencadena el deterioro cognitivo en EHM. La segunda parte de la tesis se centró en la comprensión de las rutas genéticas y los mecanismos por los que las alteraciones en los linfocitos CD4+ pueden contribuir a la inflamación periférica en EHM. Se analizaron los niveles de expresión de genes, factores de transcripción y miARNs en este subtipo de linfocitos mediante secuenciación de alto rendimiento (RNA-seq y miRNA-seq). El análisis individual de cada grupo de datos mostró diferencias de expresión de ARNm y miARN, así como las vías biológicas alteradas en los linfocitos CD4+ comparando pacientes cirróticos con y sin EHM. Encontramos alteraciones en 167 ARNm y 20 rutas biológicas en los pacientes con EHM, incluyendo los receptores tipo Toll, la señalización de la IL-17 y las vías del metabolismo de histidina y triptófano. Trece miRNAs y 7 factores de transcripción presentaron alteraciones en los pacientes con EHM. Utilizando bases de datos para determinar sus genes diana, encontramos una modulación por el aumento de miR-494-39, miR-656-3p y miR-130b-3p de la expresión de TNFAIP3 (proteína A20) y ZFP36 (proteína TTP) aumentaría los niveles de citoquinas proinflamatorias como IL-17 y TNF¿. Finalmente, estudiamos el repertorio de receptores de células T (TCR) de pacientes control, y de pacientes cirróticos con y sin EHM, a partir del conjunto de datos de RNA-seq procedentes de células T CD4+ aisladas previamente. Dado que los experimentos de RNA-seq contienen genes del TCR en una fracción de los datos, se puede analizar el repertorio sin necesidad de generar datos adicionales. Tras el alineamiento de las lecturas con la base de datos de los genes VDJ realizada por la herramienta MiXCR, recuperamos entre 498-1114 cadenas TCR beta distintas por paciente. Los resultados mostraron un bajo número de clones públicos (convergencia clonal), una alta diversidad (expansión clonal) y una elevada similitud en la arquitectura de la secuencia dentro de los repertorios, independientemente del estado inmunitario de los 3 grupos de pacientes. Además, detectamos una sobrerrepresentación significativa de los TCRs relacionados con la enfermedad celíaca y la enfermedad inflamatoria intestinal en los repertorios de los pacientes con EHM. / [CA] L'objectiu principal d'aquest treball va ser conèixer les alteracions immunològiques associades a la inflamació perifèrica que desencadenen deteriorament cognitiu en els pacients cirròtics amb encefalopatia hepàtica mínima (EHM). Aquests canvis poden ser monitoritzats com cascades de senyalització al llarg dels tipus cel·lulars del sistema immune. Com a estudi preliminar, es van analitzar els canvis en l'expressió gènica (transcriptòmica), els metabòlits de plasma (metabolòmica) i un conjunt de citocines extracel·lulars en mostres de sang de pacients cirròtics amb i sense EHM. Els resultats de l'anàlisi transcriptòmica van recolzar la hipòtesi d'alternances en les poblacions cel·lulars de limfòcits Th1/Th2 i Th17 com a principals impulsors de la EHM. L'anàlisi clúster de les molècules del sèrum va donar com a resultat 6 grups de compostos químicament similars. També s'ha realitzat una anàlisi d'integració multiòmica per detectar les relacions entre els components intra i extracel·lulars que podrien contribuir a la inducció del deteriorament cognitiu. Els resultats d'aquesta anàlisi d'integració van suggerir una relació entre les citocines CCL20, CX3CL1, CXCL13, IL-15, IL-22 i IL-6 amb l'alteració de la quimiotaxis, així com un vincle entre els fosfolípids insaturats de cadena llarga i l'augment del transport d'àcids grassos i la producció de prostaglandines. Estudis previs suggereixen que un canvi en la inflamació perifèrica, orquestrat principalment per les cèl·lules T CD4+, és un factor crític que desencadena el deteriorament cognitiu en EHM. La segona part de la tesi es va centrar en la comprensió de les rutes genètiques i els mecanismes pels quals les alteracions en els limfòcits CD4+ poden contribuir a la inflamació perifèrica en EHM. Es van analitzar els nivells d'expressió de gens, factors de transcripció i miARNs en aquest subtipus de limfòcits mitjançant seqüenciació d'alt rendiment (RNA-seq i miRNA-seq). L'anàlisi individual de cada grup de dades va mostrar les diferències d'expressió d'ARNm i miARN, així com les vies biològiques alterades en els limfòcits CD4+ comparant pacients cirròtics amb i sense EHM. Trobàrem alteracions en 167 ARNm i 20 rutes biològiques en els pacients amb EHM, incloent els receptors tipus Toll, la senyalització de la IL-17 i les vies del metabolisme de la histidina i el triptòfan. Tretze miRNAs i 7 factors de transcripció van presentar alteracions en els pacients amb EHM. Després utilitzàrem bases de dades per determinar els seus gens diana, els quals van resultar ser codificants per proteïnes clau implicades en el canvi immunològic que desencadena la EHM. Per exemple, la modulació per l'augment de miR-494-39, miR-656-3p i miR-130b-3p de l'expressió de TNFAIP3 (proteïna A20) i ZFP36 (proteïna TTP) augmentaria els nivells de citocines proinflamatòries com IL-17 i TNF¿. L'última part de la tesi comprèn un cas pràctic en el qual s'estudia el repertori de receptors de cèl·lules T (TCR) de pacients control, i de pacients cirròtics amb i sense EHM, a partir del conjunt de dades de RNA-seq procedents de cèl·lules T CD4+ aïllades prèviament. Atès que els experiments de RNA-seq contenen gens del TCR en una fracció de les dades, es crea una oportunitat per a l'anàlisi del repertori sense necessitat de generar dades addicionals, el qual redueix la quantitat i els costos de les mostres. Després de l'alineament de les lectures amb la base de dades dels gens VDJ realitzada per l'eina MiXCR, recuperàrem entre 498-1114 cadenes TCR beta diferents per pacient. Els resultats van mostrar un baix nombre de clons públics (convergència clonal), una alta diversitat (expansió clonal) i una elevada similitud en l'arquitectura de la seqüència dins dels repertoris, independentment de l'estat immunitari dels 3 grups de pacients. A més, detectàrem una sobrerepresentació significativa dels TCRs relacionats amb la malaltia celíaca i la malaltia inflamatòria intestinal en els repertoris dels pacients amb EHM. / [EN] The main objective of this work was to understand the immunological alterations associated with the peripheral inflammation that trigger minimal hepatic encephalopathy (MHE) in patients with cirrhosis. These changes can be monitored through the signaling cascades of different immune system cell types. In this work, in a preliminary study, changes in gene expression (transcriptomics), plasma metabolites (metabolomics), and a panel of extracellular cytokines were analyzed in blood samples from patients with cirrhosis with and without MHE. Transcriptomics analysis supported the hypothesis that alternations in the Th1/Th2 and Th17 lymphocyte cell populations are the major drivers of MHE. Cluster analysis of serum molecules highlighted 6 groups of chemically similar compounds. We also developed a multi-omic integration analysis pipeline to detect covariation between intra- and extracellular components that could contribute to the induction of cognitive impairment. Results of this integrative analysis suggested a relationship between cytokines CCL20, CX3CL1, CXCL13, IL-15, IL-22, and IL-6 and altered chemotaxis, as well as a link between long-chain unsaturated phospholipids and increased fatty acid transport and prostaglandin production. A shift in peripheral inflammation in patients with MHE, mainly orchestrated by CD4+ T cells, had been proposed in previous studies as a critical factor that triggers cognitive impairment. The second part of this thesis focused on understanding the pathways and mechanisms by which alterations in CD4+ lymphocytes may contribute to peripheral inflammation in MHE. Thus, the expression levels of genes, transcription factors, and miRNAs were analyzed in this lymphocyte subtype by high throughput sequencing (RNA-seq and miRNA-seq). Separate analysis of each dataset showed mRNA and miRNA expression differences and altered biological pathways in CD4+ lymphocytes when compared to patients with cirrhosis with and without MHE. We found alterations in 167 mRNAs and 20 pathways in patients with MHE, including toll-like receptors, IL-17 signaling, histidine, and tryptophan metabolism pathways. In addition, 13 miRNAs and 7 transcription factors presented alterations in patients with MHE. We used public databases to determine the target genes of these regulatory molecules and found that increased miR-494-39, miR-656-3p, and miR-130b-3p expression may modulate TNFAIP3 (A20) and ZFP36 (TTP) to increase levels of pro-inflammatory cytokines such as IL-17 and TNF¿. Finally, we present a case study of the T-cell receptor (TCR) repertoire profiles of control patients and patients with cirrhosis with and without MHE obtained from the bulk RNA-seq dataset previously generated from isolated CD4+ T cells. Given that RNA-seq experiments contain the TCR genes in a fraction of the data, the receptor repertoire analysis without the need to generate additional data is possible. After read alignment to the VDJ genes was performed with the MiXCR tool, we successfully recovered 498-1,114 distinct TCR beta chains per patient. Results showed fewer public clones (clonal convergence), higher diversity (clonal expansion), and elevated sequence architecture similarity within repertoires, independently of the immune status of the 3 groups of patients. Additionally, we detected significant overrepresentation of celiac disease and inflammatory bowel disease related TCRs in MHE patient repertoires. To the best of our knowledge, this is one of the few studies to have shown a step-by-step pipeline for the analysis of immune repertoires using whole transcriptome RNA-seq reads as source data. In conclusion, our work identified potentially relevant molecular mechanisms of the changes in the immune system associated with the onset of MHE in patients with cirrhosis. Future work with a large sample cohort will be required to validate these results in terms of biomarker determination and the development of new, more effective treatments for MHE. / Rubio Martínez-Abarca, MT. (2022). Multi-omic data integration study of immune system alterations in the development of minimal hepatic encephalopathy in patients with liver cirrhosis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/185116
86

Modelización de la variación dimensional de los tejidos de punto por recogida durante todo el proceso productivo

Llinares Berenguer, Jorge Óscar 24 October 2022 (has links)
Tesis por compendio / [ES] El objetivo de esta tesis se considera de gran relevancia para los técnicos de las industrias textiles de género de punto, ya que contribuye a simplificar enormemente los cálculos productivos en las empresas de género de punto por trama. Ofrece un método eficaz para predecir el encogimiento longitudinal, transversal y al ancho de los tejidos de punto después de los procesos de tejeduría, tintura y acabados a partir de la forma dimensional que adopte la malla. Esta investigación se ha realizado con el análisis de más de 700 muestras de tejido extraídas de sus respectivas partidas de tejido. Con este análisis se han obtenido modelos de regresión lineal. Después de la verificación de los resultados obtenidos se validan los modelos, apreciando mínimos errores que verifican su aplicabilidad. Esta Tesis Doctoral comienza con el análisis de la variación dimensional de las tres estructuras fundamentales: interlock, 1x1 rib y single jersey. Durante los procesos de tejeduría, tintura y acabado de los tejidos de punto, se pueden dar una serie de circunstancias que pueden alterar la calidad del producto final del tejido y por consiguiente su transmisión directa al artículo al que va a ser destinado. Uno de estos factores que ha creado mucha incertidumbre en su trabajo a los técnicos de las industrias textiles ha sido la estabilidad dimensional de los tejidos de punto. La aplicación de los resultados de la Tesis puede proporcionar un importante ahorro de tiempo a las empresas de género de punto y, en consecuencia, un ahorro de inversión en stock de productos intermedios. Con la aplicación de los modelos desarrollados, las empresas no necesitan utilizar los métodos de cálculo comunes consistentes en la aplicación de la norma UNE EN ISO 6330-2012, que requiere un día de parada en la producción hasta la obtención de los resultados. También en esta tesis doctoral se han propuesto modelos que expliquen la variabilidad de la longitud del hilo absorbido por una malla, en cada una de las tres estructuras fundamentales, a partir de modelos que utilizan otras variables mucho más sencillas de analizar. De esta forma se deja de un lado el cálculo tradicional utilizado basado en la norma UNE-EN 14970, ya que este procedimiento es algo engorroso, requiriendo mucho tiempo y un aparato de medición del hilo. Con la utilización de los modelos propuestos se agiliza la estimación de la longitud de malla entre los estados de relajación propuestos, dos en tejeduría (Tejeduría y relajación en seco y Tejeduría y relajación en húmedo) y dos en tintura (Tintura y relajación en seco y tintura y relajación en húmedo). / [CA] L'objectiu d'aquesta tesi es considera de gran rellevància per als tècnics de les indústries tèxtils de gènere de punt, ja que contribueix a simplificar enormement els càlculs productius a les empreses de gènere de punt per trama. Ofereix un mètode eficaç per predir l'encongiment longitudinal i transversal dels teixits de punt després dels processos de teixidura, tintura i acabats a partir de la forma dimensional que adopte la malla. Aquesta investigació s'ha fet amb l'anàlisi de més de 700 mostres de teixit extretes de les respectives partides de teixit. Amb aquesta anàlisi s'han obtingut models de regressió lineal. Després de la verificació dels resultats obtinguts es validen els models, apreciant mínims errors que verifiquen la seua aplicabilitat. Aquesta Tesi Doctoral comença amb l'anàlisi de la variació dimensional de les tres estructures fonamentals: interlock, 1x1 rib i single jersei. Durant els processos de teixidura, tintura i acabat dels teixits de punt, es poden donar una sèrie de circumstàncies que poden alterar la qualitat del producte final del teixit i per tant la seva transmissió directa a l'article a què serà destinat. Un d'aquests factors que ha creat molta incertesa a la feina als tècnics de les indústries tèxtils ha estat l'estabilitat dimensional dels teixits de punt. L'aplicació dels resultats de la Tesi pot proporcionar un important estalvi de temps a les empreses de gènere de punt i, en conseqüència, un estalvi d'inversió en estoc de productes intermedis. Amb l'aplicació dels models desenvolupats, les empreses no necessiten utilitzar els mètodes de càlcul comuns consistents en l'aplicació de la norma UNE EN ISO 6330-2012, que requereix un dia de parada a la producció fins a l'obtenció dels resultats. També en aquesta tesi doctoral s'han proposat models que expliquen la variabilitat de la longitud del fil absorbit per una malla, en cadascuna de les tres estructures fonamentals, a partir de models que utilitzen altres variables molt més senzilles d'analitzar. D'aquesta manera es deixa d'una banda el càlcul tradicional utilitzat basat en la norma UNE-EN 14970, ja que aquest procediment és una mica molest, requerint molt de temps i un aparell de mesura del fil. Amb la utilització dels models proposats s'agilitza l'estimació de la longitud de malla entre els estats de relaxació proposats, dos en teixidura (Teixidura i relaxació en sec i Teixidura i relaxació en humit) i dos en tintura (Tintura i relaxació en sec i tintura i relaxació en humit). / [EN] The objective of this thesis is considered of great relevance for the technical of the knitwear textile industries, since it greatly simplifies the productive calculations in weft knitting companies. It offers an effective method for predicting the longitudinal and transverse shrinkage of knitted fabrics after the knitting, dyeing and finishing processes, based on the dimensional shape adopted by the loop. This research has been carried out with the analysis of more than 700 knitting samples extracted from their respective fabrics items. With this analysis we have obtained linear regression models. After verification of the results obtained, the models are validated, appreciating minimum errors that verify their applicability. This Doctoral Thesis begins with the analysis of the dimensional variation of the three fundamental structures: interlock, 1x1 rib and single jersey. During the knitting, dyeing and finishing processes of knitted fabrics, can be given a series of circumstances that can alter the quality of the final product of the fabric and therefore its direct transmission to the article to which it is going to be intended. One of these factors that has created a lot of uncertainty in your work technical of the textile industries has been the dimensional stability of knitted fabrics. The application of the results of the Thesis can provide a significant save time for knitting companies and, consequently, an investment savings in stock of intermediate products. With the application of developed models, companies do not need to use the calculation methods consisting of the application of the UNE EN ISO 6330-2012 standard, which It requires a day of stoppage in production until the results are obtained. Also in this doctoral thesis models have been proposed that explain the variability of the length of the thread absorbed by a loop, in each of the three fundamental structures, from models that use other variables much easier to analyze. In this way, it leaves aside the traditional calculation used based on the UNE-EN 14970 standard, since this procedure is somewhat cumbersome, requiring a lot of time and a thread measurement. With the use of the proposed models, the estimation of the loop length between the proposed relaxation states, two in knitting (knitting and dry relaxation and knitting and wet relaxation) and two in dyeing (dyeing and dry relaxation and dyeing and wet relaxation). / Llinares Berenguer, JÓ. (2022). Modelización de la variación dimensional de los tejidos de punto por recogida durante todo el proceso productivo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/188844 / Compendio
87

Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos

Barceló Cerdá, Susana 04 May 2016 (has links)
[EN] Statistical Process Control (SPC) and the Automatic Process Control (APC) are two control philosophies have evolved independently until recently. The overall objective of both APC and SPC is to optimize the performance of processes, reducing the variability of the resulting characteristics around the desired values. The fundamentals of the two disciplines arise from the idea that the whole process has operation variations. These variations may affect, to a greater or lesser extent, the final product quality and the process productivity. The two methodologies conceptualize processes and control in different ways, they originated in different industrial sectors and have evolved independently, until the interest to integrate them in the control of industrial processes was deduced. It was warned that they could be complementary rather than conflicting methodologies as they were understood until then. The possibility of combining the advantages of both, integrating them into a new control paradigm was explored. First, the problem of identifying and estimating a process model is considered. Controlled variables in this model are the main feature of product quality and a productivity variable. The latter is innovative since the productivity variables are measured, but they are not considered as controlled variables. For this, two methods of multivariate time series are used, the Box-Jenkins multiple transfer function in the parsimonious way and the impulse response function obtained by Partial Least Squares regression (Time Series-Partial Least Squares, TS-PLS). These two methods were compared taking into account different aspects such as the simplicity of the modeling process in the stages of identification, estimation and model validation, as well as the utility of graphical tools that provide both methodologies, the goodness of fit obtained, and the simplicity of the mathematical structure of the model. The DMC (Dynamic Matrix Control) controller, an automatic control algorithm belonging to the family of MPC (Model Predictive Control) controllers, is derived from the estimated Box-Jenkins multiple transfer function that has been selected as the most suitable for this kind of processes. An optimal tuning method to maximize the controller performance, applying experimental design 2k-p, is presented. Finally, an integrated control system MESPC (Multivariate Engineering Statistical Process Control) whose monitoring component has been implemented applying latent structures based multivariate statistical process control methods (Lsb-MSPC), has been developed. The monitoring module is designed to act as both process and DMC controller supervisor. To do this, we estimate a NOC-PCA model (Normal Operation Conditions Principal Component Analysis), which has as variables both process-related and quality-related variables, all derived from the automatic control system. From this model, and DModX graphics have been derived. We assessed the performance of MESPC system, subjecting it to simulated potential failures or special causes of variability. / [ES] El Control Estadístico de Procesos (Statistical Process Control, SPC) y el Control Automático de Procesos (Automatic Process Control, APC) son dos filosofías de control se han desarrollado hasta recientemente de forma independiente. El objetivo general tanto del SPC como del APC, es optimizar el funcionamiento de los procesos, reduciendo la variabilidad de las características resultantes en torno a los valores deseados. El fundamento de ambas disciplinas, parte de la idea de que todo proceso presenta variaciones en su funcionamiento. Estas variaciones pueden afectar en mayor o en menor medida a la calidad final del producto y a la productividad del proceso. Las dos metodologías conceptualizan los procesos y su control de diferentes formas, se originaron en diferentes sectores industriales y han evolucionado de forma independiente, hasta que se dedujo el interés de integrarlas en el control de los procesos industriales, ya que se advirtió que podían ser complementarias, antes que contrapuestas, como se entendían hasta entonces y se exploró la posibilidad de aunar las ventajas de ambas, integrándolas en un nuevo paradigma de control. Esta tesis se centra en el estudio de la integración de procedimientos multivariantes para la regulación óptima y la monitorización estadística de procesos, con el propósito de contribuir a la mejora de la calidad y de la productividad de los procesos. La metodología propuesta se ha aplicado con fines ilustrativos a un proceso MIMO de producción en continuo de Polietileno de Alta Densidad (PEAD).En primer lugar, se considera el problema de la identificación y posterior estimación de un modelo del proceso. Las variables controladas en este modelo han sido la principal característica de calidad del producto y una variable de productividad, esto último es innovador puesto que las variables de productividad se miden, pero no se consideran variables controladas. Para ello, se emplean dos metodologías de series temporales multivariantes, la obtención de la función de transferencia múltiple en forma parsimoniosa de Box-Jenkins y la obtención de la función de respuesta a impulsos mediante los modelos de regresión por mínimos cuadrados parciales (Time Series-Partial Least Squares, TS-PLS). Estas dos metodologías se han comparado teniendo en cuenta distintos aspectos como son la simplicidad del proceso de modelado en las etapas de identificación, estimación y validación del modelo, así como la utilidad de las herramientas gráficas que proporcionan ambas metodologías, la bondad de ajuste obtenida, y la simplicidad de la estructura matemática del modelo. A partir del modelo de función de transferencia múltiple estimado, elegido como el más adecuado para este tipo de procesos, se desarrolla el controlador DMC (Dynamic Matrix Control), un algoritmo de control automático que pertenece a la familia del Control Predictivo basado en Modelos (Model Predictive Control, MPC). Se presenta un método de sintonizado óptimo del controlador que permita maximizar su rendimiento, aplicando diseño de experimentos 2k-p.Finalmente, se ha desarrollado un sistema de control integrado MESPC (Multivariate Engineering Statistical Process Control), cuya componente de monitorización se ha implementado aplicando métodos de control estadístico multivariante de procesos basados en técnicas de proyección en estructuras latentes. Este módulo de monitorización se ha diseñado para que actúe como supervisor tanto del proceso como del controlador DMC. Para ello, se ha estimado un modelo NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el que han intervenido tanto variables relacionadas con el proceso como con la calidad, todas derivadas de la componente del control automático. A partir de este modelo se han derivado los gráficos y DModX. Se ha evaluado el funcionamiento del sistema MESPC, sometiéndolo a fallos potenciales o causas especiales de variabiliabilidad. / [CA] El Control Estadístic de Processos (Statistical Process Control, SPC) i del Control Automàtic de Processos (Automatic Process Control, APC) son dues filosofies de control s'han desenvolupat fins a recentment de forma independent. L'objectiu general tant del SPC com del APC, és optimitzar el funcionament dels processos, reduint la variabilitat de les característiques resultants entorn dels valors desitjats. El fonament d'ambdues disciplines, part de la idea que tot procés presenta variacions en el seu funcionament. Aquestes variacions poden afectar en major o en menor mesura a la qualitat final del producte i a la productivitat del procés. Les dues metodologies conceptualitzen els processos i el seu control de diferents formes, es van originar en diferents sectors industrials i han evolucionat de forma independent, fins que es va deduir l'interès d'integrar-les en el control dels processos industrials, ja que es va advertir que podien ser complementàries, abans que contraposades, com s'entenien fins llavors i es va explorar la possibilitat de conjuminar els avantatges d'ambdues, integrant-les en un nou paradigma de control. Aquesta tesi se centra en l'estudi de la integració de procediments multivariants per a la regulació òptima i el monitoratge estadístic de processos amb el propòsit de contribuir a la millora de la qualitat i de la productivitat dels processos. La metodologia proposada s'ha aplicat amb finalitats il·lustratives a un procés MIMO de producció en continu de Polietilè d'Alta Densitat (PEAD). En primer lloc, es considera el problema de la identificació i posterior estimació d'un model del procés. Les variables controlades en aquest model han sigut la principal característica de qualitat del producte i una variable de productivitat, açò últim és innovador ja que les variables de productivitat es mesuren, però no es consideren variables controlades. Per a açò, s'utilitzen dues metodologies de sèries temporals multivariants, l'obtenció de la funció de transferència múltiple en forma parsimòniosa de Box-Jenkins i l'obtenció de la funció de resposta a impulsos mitjançant els models de regressió per mínims quadrats parcials (Times Series-Partial Least Squares, TS-PLS). Aquestes dues metodologies s'han comparat tenint en compte diferents aspectes com són la simplicitat del procés de modelatge en les etapes d'identificació, estimació i validació del model, així com la utilitat de les eines gràfiques que proporcionen ambdues metodologies, la bondat d'ajust obtinguda, i la simplicitat de l'estructura matemàtica del model. A partir del model de funció de transferència múltiple estimat, triat com el més adequat per a aquest tipus de processos, es desenvolupa el controlador DMC (Dynamic Matrix Control), un algorisme de control automàtic que pertany a la família del Control Predictiu basat en Models (Model Predictive Control, MPC). Es presenta un mètode de sintonitzat òptim del controlador que permeta maximitzar el seu rendiment, aplicant disseny d'experiments 2k-p. Finalment, s'ha desenvolupat un sistema de control integrat MESPC (Multivariate Engineering Statistical Process Control). Per a implementar la component de monitoratge d'aquest sistema integrat s'han usat mètodes de control estadístic multivariants de processos basats en tècniques de projecció en estructures latents (Latent structures based-Multivariate Statistical Process Control). Aquest mòdul de monitoratge s'ha dissenyat perquè actue com a supervisor tant del procés com del controlador DMC. Per a açò, s'ha estimat un model NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el qual han intervingut variables relacionades tant amb el procés, com amb la qualitat, totes derivades de la component del control automàtic. A partir d'aquest model s'han derivat els gràfics i DModX. S'ha avaluat el funcionament del sistema MESPC, sotmetent-lo a fallades potencials o causes especials de / Barceló Cerdá, S. (2016). Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63442
88

The Distributed and Assembly Scheduling Problem

Hatami, Sara 16 May 2016 (has links)
Tesis por compendio / [EN] Nowadays, manufacturing systems meet different new global challenges and the existence of a collaborative manufacturing environment is essential to face with. Distributed manufacturing and assembly systems are two manufacturing systems which allow industries to deal with some of these challenges. This thesis studies a production problem in which both distributed manufacturing and assembly systems are considered. Although distributed manufacturing systems and assembly systems are well-known problems and have been extensively studied in the literature, to the best of our knowledge, considering these two systems together as in this thesis is the first effort in the literature. Due to the importance of scheduling optimization on production performance, some different ways to optimize the scheduling of the considered problem are discussed in this thesis. The studied scheduling setting consists of two stages: A production and an assembly stage. Various production centers make the first stage. Each of these centers consists of several machines which are dedicated to manufacture jobs. A single assembly machine is considered for the second stage. The produced jobs are assembled on the assembly machine to form final products through a defined assembly program. In this thesis, two different problems regarding two different production configurations for the production centers of the first stage are considered. The first configuration is a flowshop that results in what we refer to as the Distributed Assembly Permutation Flowshop Scheduling Problem (DAPFSP). The second problem is referred to as the Distributed Parallel Machine and Assembly Scheduling Problem (DPMASP), where unrelated parallel machines configure the production centers. Makespan minimization of the product on the assembly machine located in the assembly stage is considered as the objective function for all considered problems. In this thesis some extensions are considered for the studied problems so as to bring them as close as possible to the reality of production shops. In the DAPFSP, sequence dependent setup times are added for machines in both production and assembly stages. Similarly, in the DPMASP, due to technological constraints, some defined jobs can be processed only in certain factories. Mathematical models are presented as an exact solution for some of the presented problems and two state-of-art solvers, CPLEX and GUROBI are used to solve them. Since these solvers are not able to solve large sized problems, we design and develop heuristic methods to solve the problems. In addition to heuristics, some metaheuristics are also designed and proposed to improve the solutions obtained by heuristics. Finally, for each proposed problem, the performance of the proposed solution methods is compared through extensive computational and comprehensive ANOVA statistical analysis. / [ES] Los sistemas de producción se enfrentan a retos globales en los que el concepto de fabricación colaborativa es crucial para poder tener éxito en el entorno cambiante y complejo en el que nos encontramos. Una característica de los sistemas productivos que puede ayudar a lograr este objetivo consiste en disponer de una red de fabricación distribuida en la que los productos se fabriquen en localizaciones diferentes y se vayan ensamblando para obtener el producto final. En estos casos, disponer de modelos y herramientas para mejorar el rendimiento de sistemas de producción distribuidos con ensamblajes es una manera de asegurar la eficiencia de los mismos. En esta tesis doctoral se estudian los sistemas de fabricación distribuidos con operaciones de ensamblaje. Los sistemas distribuidos y los sistemas con operaciones de ensamblaje han sido estudiados por separado en la literatura. De hecho, no se han encontrado estudios de sistemas con ambas características consideradas de forma conjunta. Dada la complejidad de considerar conjuntamente ambos tipos de sistemas a la hora de realizar la programación de la producción en los mismos, se ha abordado su estudio considerando un modelo bietápico en la que en la primera etapa se consideran las operaciones de producción y en la segunda se plantean las operaciones de ensamblaje. Dependiendo de la configuración de la primera etapa se han estudiado dos variantes. En la primera variante se asume que la etapa de producción está compuesta por sendos sistemas tipo flowshop en los que se fabrican los componentes que se ensamblan en la segunda etapa (Distributed Assembly Permutation Flowshop Scheduling Problem o DAPFSP). En la segunda variante se considera un sistema de máquinas en paralelo no relacionadas (Distributed Parallel Machine and Assembly Scheduling Problem o DPMASP). En ambas variantes se optimiza la fecha de finalización del último trabajo secuenciado (Cmax) y se contempla la posibilidad que existan tiempos de cambio (setup) dependientes de la secuencia de trabajos fabricada. También, en el caso DPMASP se estudia la posibilidad de prohibir o no el uso de determinadas máquinas de la etapa de producción. Se han desarrollado modelos matemáticos para resolver algunas de las variantes anteriores. Estos modelos se han resuelto mediante los programas CPLEX y GUROBI en aquellos casos que ha sido posible. Para las instancias en los que el modelo matemático no ofrecía una solución al problema se han desarrollado heurísticas y metaheurísticas para ello. Todos los procedimientos anteriores han sido estudiados para determinar el rendimiento de los diferentes algoritmos planteados. Para ello se ha realizado un exhaustivo estudio computacional en el que se han aplicado técnicas ANOVA. Los resultados obtenidos en la tesis permiten avanzar en la comprensión del comportamiento de los sistemas productivos distribuidos con ensamblajes, definiendo algoritmos que permiten obtener buenas soluciones a este tipo de problemas tan complejos que aparecen tantas veces en la realidad industrial. / [CA] Els sistemes de producció s'enfronten a reptes globals en què el concepte de fabricació col.laborativa és crucial per a poder tindre èxit en l'entorn canviant i complex en què ens trobem. Una característica dels sistemes productius que pot ajudar a aconseguir este objectiu consistix a disposar d'una xarxa de fabricació distribuïda en la que els productes es fabriquen en localitzacions diferents i es vagen acoblant per a obtindre el producte final. En estos casos, disposar de models i ferramentes per a millorar el rendiment de sistemes de producció distribuïts amb acoblaments és una manera d'assegurar l'eficiència dels mateixos. En esta tesi doctoral s'estudien els sistemes de fabricació distribuïts amb operacions d'acoblament. Els sistemes distribuïts i els sistemes amb operacions d'acoblament han sigut estudiats per separat en la literatura però, en allò que es coneix, no s'han trobat estudis de sistemes amb ambdós característiques conjuntament. Donada la complexitat de considerar conjuntament ambdós tipus de sistemes a l'hora de realitzar la programació de la producció en els mateixos, s'ha abordat el seu estudi considerant un model bietàpic en la que en la primera etapa es consideren les operacions de producció i en la segona es plantegen les operacions d'acoblament. Depenent de la configuració de la primera etapa s'han estudiat dos variants. En la primera variant s'assumix que l'etapa de producció està composta per sengles sistemes tipus flowshop en els que es fabriquen els components que s'acoblen en la segona etapa (Distributed Assembly Permutation Flowshop Scheduling Problem o DAPFSP). En la segona variant es considera un sistema de màquines en paral.lel no relacionades (Distributed Parallel Machine and Assembly Scheduling Problem o DPMASP). En ambdós variants s'optimitza la data de finalització de l'últim treball seqüenciat (Cmax) i es contempla la possibilitat que existisquen temps de canvi (setup) dependents de la seqüència de treballs fabricada. També, en el cas DPMASP s'estudia la possibilitat de prohibir o no l'ús de determinades màquines de l'etapa de producció. S'han desenvolupat models matemàtics per a resoldre algunes de les variants anteriors. Estos models s'han resolt per mitjà dels programes CPLEX i GUROBI en aquells casos que ha sigut possible. Per a les instàncies en què el model matemàtic no oferia una solució al problema s'han desenrotllat heurístiques i metaheurísticas per a això. Tots els procediments anteriors han sigut estudiats per a determinar el rendiment dels diferents algoritmes plantejats. Per a això s'ha realitzat un exhaustiu estudi computacional en què s'han aplicat tècniques ANOVA. Els resultats obtinguts en la tesi permeten avançar en la comprensió del comportament dels sistemes productius distribuïts amb acoblaments, definint algoritmes que permeten obtindre bones solucions a este tipus de problemes tan complexos que apareixen tantes vegades en la realitat industrial. / Hatami, S. (2016). The Distributed and Assembly Scheduling Problem [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/64072 / Compendio
89

Estrategia y Filantropía, aunando objetivos de negocios y sociales. Un Modelo para analizar los patrones de filantropía estratégica de las empresas

García Ortega, Beatriz 12 September 2018 (has links)
Tesis por compendio / The responsible behavior of companies is a field to keep exploring due to its theoretical and practical complexity, its different contexts and connotations, its growing questioning and demand by society and its rapid evolution. This thesis focuses on the study and deepening on the role of companies in society, and in particular on their altruistic or philanthropic behavior and their social responsibility, with community involvement as a key axis. It consists of three blocks, with approaches and techniques that offer new contributions. The first one analyzes the philanthropic behavior and the community involvement of the companies listed in the stock indexes of Spain, France, Germany and Holland, through the use of terminology in the literature and memories of sustainability and the formulas to channel the help and the beneficiaries. The variables that most influence the use of the terms are the country and especially the incomes of the companies, being the ones with less weight the number of employees and the sector. It is also inferred that these activities require significant economic resources. The results show that the companies analyzed are aware of their role and actively participate in their communities. The main contribution of this work is its focus on the community and the connection with literature. The bibliometric analysis through an iterative process has proved useful for detecting terms related to the subject. The other two works analyze the behavior of companies in a controversial sector such as mining, an example of the development of corporate social responsibility (CSR) to improve its position and image, obtain a social license to operate (SLO) and reduce resistance to its implementation and operations. The sector, while being a leader in CSR, faces great challenges. The research starts with the analysis of the letters of the CEOs of 32 leading mining companies and their sustainability reports to analyze the influence of discourse in its strategy for obtaining SLO and community involvement. In addition, we analyze the years 2011 and 2015, to see the evolution in the speech and whether it affects the strategy on the SLO and the community. These letters are highlighted in the literature for their ability to communicate the orientation of companies in relation to social issues and community involvement. The results show the orientation towards obtaining legitimacy, credibility and trust in the communities where they operate, so that it is translated in the achievement of the SLO. In addition, it is observed how the evolution of the discourse involves changes of strategies and also a commitment on behalf of the companies to reduce the dependence on the mining. On the other hand, there is an increase in works in the mining sector based on the perceptions of stakeholders, who are those granting the SLO. In the literature the difficulty of its understanding is well identified and so the study of the stakeholders perception in contrast to the one of the companies is found of interest. Our research is carried out through a qualitative interview methodology taking as sample a large area with several Latin American countries. The results show different perceptions between companies and stakeholders on the analysis and diagnosis of the current situation and on the degree of implementation and effectiveness of CSR policies. The stakeholders demand greater objectivity and credibility in the reports; They find companies minimizing impacts and overestimating their benefits and community involvement. On the contrary, they agree on the need for a multi-actor model, with greater participation of the community, and on the role of NGOs and governments in defending the community and to avoid conflicts and rejections. The results help to understand the different realities perceived and the causes of rejection, as a way to improve the CSR policies. / El comportamiento responsable de las empresas es un campo a seguir explorando por su complejidad teórica y práctica, sus diversos contextos y connotaciones, su creciente cuestionamiento y exigencia por la sociedad y su rápida evolución. Esta tesis se orienta hacia el estudio y profundización sobre el papel de las empresas en la sociedad, y en particular su comportamiento altruista o filantrópico y su responsabilidad social, con la participación en la comunidad como eje clave. Consta de tres bloques, con planteamientos y técnicas que ofrecen nuevas aportaciones. El primero analiza el comportamiento filantrópico y la participación en la comunidad de las empresas que cotizan en los índices bursátiles de España, Francia, Alemania y Holanda, a través del uso de la terminología en la literatura y memorias de sostenibilidad y las fórmulas para canalizar la ayuda y los beneficiarios. Las variables que más influyen en el uso de los términos son el país y especialmente los ingresos de las empresas, siendo las de menor peso el número de empleados y el sector. Se infiere además que estas actividades requieren de importantes recursos económicos. Los resultados muestran que las empresas analizadas son conscientes de su papel y participan activamente en sus comunidades. La principal novedad de este trabajo es su enfoque centrado en la comunidad y desde la conexión con la literatura. El análisis bibliométrico a través de un proceso iterativo muestra su utilidad para detectar términos relacionados con el tema. Los otros dos trabajos analizan el comportamiento de empresas en un sector controvertido como el de la minería, exponente del desarrollo de la responsabilidad social corporativa (RSC) para mejorar su posición e imagen, obtener licencia social para operar (SLO) y reducir la resistencia a su implantación y actividad. El sector, aun siendo puntero en la RSC, afronta grandes desafíos. Así, la investigación parte del análisis de las cartas de los CEOs de 32 destacadas empresas mineras y las memorias de sostenibilidad para analizar la influencia del discurso en su estrategia para la obtención de la SLO y en la participación en sus comunidades. Además, se analizan los años 2011 y 2015, para ver la evolución en el discurso y si afecta a la estrategia sobre la SLO y la comunidad. Estas cartas son destacadas en la literatura por su capacidad de comunicar la orientación de las empresas en relación a asuntos sociales y a la participación de la comunidad. Los resultados muestran la orientación hacia la obtención de legitimidad, credibilidad y confianza por parte de la comunidad, para que ésta se traduzca en la obtención de la SLO. Además, se observa cómo la evolución del discurso se traduce en cambios de estrategias y un compromiso por parte de las empresas por reducir la dependencia de la minería. Por otro lado se observa un aumento de trabajos en el sector minero desde las percepciones de los stakeholders, que son los que otorgan la SLO. En la literatura se reconoce la dificultad de comprensión y por ello se encuentra interesante el estudio de la percepción de los stakeholders en contraste con la de las empresas. Se realiza mediante entrevista cualitativa tomando como muestra una amplia zona con países de Latinoamérica. Los resultados muestran diferentes percepciones entre empresas y stakeholders en el análisis y diagnóstico de la situación actual y en el grado de implementación y eficacia de las políticas de RSC. Desde los stakeholders se demanda mayor objetividad y credibilidad en las memorias; consideran que las empresas minimizan los impactos y ensalzan sus beneficios y la participación de la comunidad. Por contra, coinciden en la necesidad de un modelo multiactor, con mayor participación de la comunidad, y en el papel de las ONGs y los gobiernos en defensa de la comunidad y para evitar conflictos y rechazos. Los resultados ayudan a la comprensión de las distintas realidades percib / El comportament responsable de les empreses és un camp a seguir explorant per la complexitat teòrica i pràctica, els diversos contextos i connotacions, el creixent qüestionament i exigència per part de la societat i la seua ràpida evolució. Aquesta tesi s'orienta cap a l'estudi i aprofundiment sobre el paper de les empreses en la societat, i en particular el seu comportament altruista o filantròpic i la seua responsabilitat social, amb la participació en la comunitat com a eix clau. Consta de tres blocs, amb plantejaments i tècniques que ofereixen noves aportacions. El primer analitza el comportament filantròpic i la participació en la comunitat de les empreses que cotitzen en els índexs borsaris d'Espanya, França, Alemanya i Holanda, a través de l'ús de la terminologia en la literatura i memòries de sostenibilitat i les fórmules per canalitzar la ajuda i els beneficiaris. Les variables que més influeixen en l'ús dels termes són el país i especialment els ingressos de les empreses, sent les de menor pes el nombre d'empleats i el sector. S'infereix a més que aquestes activitats requereixen d'importants recursos econòmics. Els resultats mostren que les empreses analitzades són conscients del seu paper i participen activament en les seues comunitats. La principal novetat d'aquest treball és el seu plantejament centrat en la comunitat i des de la connexió amb la literatura. L'anàlisi bibliomètrica a través d'un procés iteratiu mostra la seua utilitat per detectar termes relacionats amb el tema. Els altres dos treballs analitzen el comportament d'empreses en un sector controvertit com el de la mineria, exponent del desenvolupament de la responsabilitat social corporativa (RSC) per millorar la seua posició i imatge, obtenir llicència social per operar (SLO) i reduir la resistència a la seua implantació i activitat. El sector, tot i ser capdavanter en la RSC, afronta grans reptes. Així, la investigació parteix de l'anàlisi de les cartes dels CEOs de 32 destacades empreses mineres i les memòries de sostenibilitat per a analitzar la influència del discurs en la seua estratègia per a l'obtenció de la SLO i en la participació en les seves comunitats. A més, s'analitzen els anys 2011 i 2015, per veure l'evolució en el discurs i si afecta a l'estratègia sobre la SLO i la comunitat. Aquestess cartes són destacades en la literatura per la seua capacitat de comunicar l'orientació de les empreses en relació a assumptes socials i a la participació de la comunitat. Els resultats mostren l'orientació cap a l'obtenció de legitimitat, credibilitat i confiança per part de la comunitat, perquè aquesta es tradueixi en l'obtenció de la SLO. A més, s'observa com l'evolució del discurs es tradueix en canvis d'estratègies i un compromís per part de les empreses per reduir la dependència de la mineria. D'altra banda s'observa un augment de treballs en el sector miner des de les percepcions dels stakeholders, que són els que atorguen la SLO. En la literatura es reconeix la dificultat de comprensió i per això es troba interessant l'estudi de la percepció dels stakeholders en contrast amb la de les empreses. Es realitza mitjançant entrevista qualitativa, prenent com a mostra una àmplia zona amb països de Llatinoamèrica. Els resultats mostren diferents percepcions entre empreses i stakeholders en l'anàlisi i diagnòstic de la situació actual i en el grau d'implementació i eficàcia de les polítiques de RSC. Des dels stakeholders es demanda major objectivitat i credibilitat en les memòries; consideren que les empreses minimitzen els impactes i enalteixen els seus beneficis i la participació de la comunitat. Per contra, coincideixen en la necessitat d'un model multiactor, amb major participació de la comunitat, i en el paper de les ONGs i els governs en defensa de la comunitat i per evitar conflictes i rebutjos. Els resultats ajuden a la comprensió de les diferents realitats percebudes i / García Ortega, B. (2017). Estrategia y Filantropía, aunando objetivos de negocios y sociales. Un Modelo para analizar los patrones de filantropía estratégica de las empresas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90438 / Compendio
90

Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation

Vitale, Raffaele 03 November 2017 (has links)
The present Ph.D. thesis, primarily conceived to support and reinforce the relation between academic and industrial worlds, was developed in collaboration with Shell Global Solutions (Amsterdam, The Netherlands) in the endeavour of applying and possibly extending well-established latent variable-based approaches (i.e. Principal Component Analysis - PCA - Partial Least Squares regression - PLS - or Partial Least Squares Discriminant Analysis - PLSDA) for complex problem solving not only in the fields of manufacturing troubleshooting and optimisation, but also in the wider environment of multivariate data analysis. To this end, novel efficient algorithmic solutions are proposed throughout all chapters to address very disparate tasks, from calibration transfer in spectroscopy to real-time modelling of streaming flows of data. The manuscript is divided into the following six parts, focused on various topics of interest: Part I - Preface, where an overview of this research work, its main aims and justification is given together with a brief introduction on PCA, PLS and PLSDA; Part II - On kernel-based extensions of PCA, PLS and PLSDA, where the potential of kernel techniques, possibly coupled to specific variants of the recently rediscovered pseudo-sample projection, formulated by the English statistician John C. Gower, is explored and their performance compared to that of more classical methodologies in four different applications scenarios: segmentation of Red-Green-Blue (RGB) images, discrimination of on-/off-specification batch runs, monitoring of batch processes and analysis of mixture designs of experiments; Part III - On the selection of the number of factors in PCA by permutation testing, where an extensive guideline on how to accomplish the selection of PCA components by permutation testing is provided through the comprehensive illustration of an original algorithmic procedure implemented for such a purpose; Part IV - On modelling common and distinctive sources of variability in multi-set data analysis, where several practical aspects of two-block common and distinctive component analysis (carried out by methods like Simultaneous Component Analysis - SCA - DIStinctive and COmmon Simultaneous Component Analysis - DISCO-SCA - Adapted Generalised Singular Value Decomposition - Adapted GSVD - ECO-POWER, Canonical Correlation Analysis - CCA - and 2-block Orthogonal Projections to Latent Structures - O2PLS) are discussed, a new computational strategy for determining the number of common factors underlying two data matrices sharing the same row- or column-dimension is described, and two innovative approaches for calibration transfer between near-infrared spectrometers are presented; Part V - On the on-the-fly processing and modelling of continuous high-dimensional data streams, where a novel software system for rational handling of multi-channel measurements recorded in real time, the On-The-Fly Processing (OTFP) tool, is designed; Part VI - Epilogue, where final conclusions are drawn, future perspectives are delineated, and annexes are included. / La presente tesis doctoral, concebida principalmente para apoyar y reforzar la relación entre la academia y la industria, se desarrolló en colaboración con Shell Global Solutions (Amsterdam, Países Bajos) en el esfuerzo de aplicar y posiblemente extender los enfoques ya consolidados basados en variables latentes (es decir, Análisis de Componentes Principales - PCA - Regresión en Mínimos Cuadrados Parciales - PLS - o PLS discriminante - PLSDA) para la resolución de problemas complejos no sólo en los campos de mejora y optimización de procesos, sino también en el entorno más amplio del análisis de datos multivariados. Con este fin, en todos los capítulos proponemos nuevas soluciones algorítmicas eficientes para abordar tareas dispares, desde la transferencia de calibración en espectroscopia hasta el modelado en tiempo real de flujos de datos. El manuscrito se divide en las seis partes siguientes, centradas en diversos temas de interés: Parte I - Prefacio, donde presentamos un resumen de este trabajo de investigación, damos sus principales objetivos y justificaciones junto con una breve introducción sobre PCA, PLS y PLSDA; Parte II - Sobre las extensiones basadas en kernels de PCA, PLS y PLSDA, donde presentamos el potencial de las técnicas de kernel, eventualmente acopladas a variantes específicas de la recién redescubierta proyección de pseudo-muestras, formulada por el estadista inglés John C. Gower, y comparamos su rendimiento respecto a metodologías más clásicas en cuatro aplicaciones a escenarios diferentes: segmentación de imágenes Rojo-Verde-Azul (RGB), discriminación y monitorización de procesos por lotes y análisis de diseños de experimentos de mezclas; Parte III - Sobre la selección del número de factores en el PCA por pruebas de permutación, donde aportamos una guía extensa sobre cómo conseguir la selección de componentes de PCA mediante pruebas de permutación y una ilustración completa de un procedimiento algorítmico original implementado para tal fin; Parte IV - Sobre la modelización de fuentes de variabilidad común y distintiva en el análisis de datos multi-conjunto, donde discutimos varios aspectos prácticos del análisis de componentes comunes y distintivos de dos bloques de datos (realizado por métodos como el Análisis Simultáneo de Componentes - SCA - Análisis Simultáneo de Componentes Distintivos y Comunes - DISCO-SCA - Descomposición Adaptada Generalizada de Valores Singulares - Adapted GSVD - ECO-POWER, Análisis de Correlaciones Canónicas - CCA - y Proyecciones Ortogonales de 2 conjuntos a Estructuras Latentes - O2PLS). Presentamos a su vez una nueva estrategia computacional para determinar el número de factores comunes subyacentes a dos matrices de datos que comparten la misma dimensión de fila o columna y dos planteamientos novedosos para la transferencia de calibración entre espectrómetros de infrarrojo cercano; Parte V - Sobre el procesamiento y la modelización en tiempo real de flujos de datos de alta dimensión, donde diseñamos la herramienta de Procesamiento en Tiempo Real (OTFP), un nuevo sistema de manejo racional de mediciones multi-canal registradas en tiempo real; Parte VI - Epílogo, donde presentamos las conclusiones finales, delimitamos las perspectivas futuras, e incluimos los anexos. / La present tesi doctoral, concebuda principalment per a recolzar i reforçar la relació entre l'acadèmia i la indústria, es va desenvolupar en col·laboració amb Shell Global Solutions (Amsterdam, Països Baixos) amb l'esforç d'aplicar i possiblement estendre els enfocaments ja consolidats basats en variables latents (és a dir, Anàlisi de Components Principals - PCA - Regressió en Mínims Quadrats Parcials - PLS - o PLS discriminant - PLSDA) per a la resolució de problemes complexos no solament en els camps de la millora i optimització de processos, sinó també en l'entorn més ampli de l'anàlisi de dades multivariades. A aquest efecte, en tots els capítols proposem noves solucions algorítmiques eficients per a abordar tasques dispars, des de la transferència de calibratge en espectroscopia fins al modelatge en temps real de fluxos de dades. El manuscrit es divideix en les sis parts següents, centrades en diversos temes d'interès: Part I - Prefaci, on presentem un resum d'aquest treball de recerca, es donen els seus principals objectius i justificacions juntament amb una breu introducció sobre PCA, PLS i PLSDA; Part II - Sobre les extensions basades en kernels de PCA, PLS i PLSDA, on presentem el potencial de les tècniques de kernel, eventualment acoblades a variants específiques de la recentment redescoberta projecció de pseudo-mostres, formulada per l'estadista anglés John C. Gower, i comparem el seu rendiment respecte a metodologies més clàssiques en quatre aplicacions a escenaris diferents: segmentació d'imatges Roig-Verd-Blau (RGB), discriminació i monitorització de processos per lots i anàlisi de dissenys d'experiments de mescles; Part III - Sobre la selecció del nombre de factors en el PCA per proves de permutació, on aportem una guia extensa sobre com aconseguir la selecció de components de PCA a través de proves de permutació i una il·lustració completa d'un procediment algorítmic original implementat per a la finalitat esmentada; Part IV - Sobre la modelització de fonts de variabilitat comuna i distintiva en l'anàlisi de dades multi-conjunt, on discutim diversos aspectes pràctics de l'anàlisis de components comuns i distintius de dos blocs de dades (realitzat per mètodes com l'Anàlisi Simultània de Components - SCA - Anàlisi Simultània de Components Distintius i Comuns - DISCO-SCA - Descomposició Adaptada Generalitzada en Valors Singulars - Adapted GSVD - ECO-POWER, Anàlisi de Correlacions Canòniques - CCA - i Projeccions Ortogonals de 2 blocs a Estructures Latents - O2PLS). Presentem al mateix temps una nova estratègia computacional per a determinar el nombre de factors comuns subjacents a dues matrius de dades que comparteixen la mateixa dimensió de fila o columna, i dos plantejaments nous per a la transferència de calibratge entre espectròmetres d'infraroig proper; Part V - Sobre el processament i la modelització en temps real de fluxos de dades d'alta dimensió, on dissenyem l'eina de Processament en Temps Real (OTFP), un nou sistema de tractament racional de mesures multi-canal registrades en temps real; Part VI - Epíleg, on presentem les conclusions finals, delimitem les perspectives futures, i incloem annexos. / Vitale, R. (2017). Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90442

Page generated in 0.0591 seconds