• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 63
  • 37
  • Tagged with
  • 100
  • 100
  • 99
  • 30
  • 26
  • 18
  • 14
  • 13
  • 13
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Multi-omic data integration study of immune system alterations in the development of minimal hepatic encephalopathy in patients with liver cirrhosis

Rubio Martínez-Abarca, María Teresa 01 September 2022 (has links)
[ES] El objetivo principal de este trabajo fue conocer las alteraciones inmunológicas asociadas a la inflamación periférica que desencadenan deterioro cognitivo en los pacientes cirróticos encefalopatía hepática mínima (EHM). Estos cambios pueden ser monitorizados como cascadas de señalización a lo largo de los tipos celulares del sistema inmune. Como estudio preliminar, se analizaron los cambios en la expresión génica (transcriptómica), los metabolitos de plasma (metabolómica) y un panel de citoquinas extracelulares en muestras de sangre de pacientes cirróticos con y sin EHM. Los resultados del análisis transcriptómico apoyaron la hipótesis de alternancias en las poblaciones celulares de linfocitos Th1/Th2 y Th17 como principales impulsores de la EHM. El análisis clúster de las moléculas del suero dio como resultado 6 grupos de compuestos químicamente similares. También se ha realizado un análisis de integración multiómica para detectar las relaciones entre los componentes intra y extracelulares que podrían contribuir a la inducción del deterioro cognitivo. Los resultados de este análisis integrativo sugirieron una relación entre las citocinas CCL20, CX3CL1, CXCL13, IL-15, IL-22 e IL-6 con la alteración de la quimiotaxis, así como un vínculo entre los fosfolípidos insaturados de cadena larga y el aumento del transporte de ácidos grasos y la producción de prostaglandinas. Estudios previos sugieren que un cambio en la inflamación periférica, orquestado principalmente por las células T CD4+, es un factor crítico que desencadena el deterioro cognitivo en EHM. La segunda parte de la tesis se centró en la comprensión de las rutas genéticas y los mecanismos por los que las alteraciones en los linfocitos CD4+ pueden contribuir a la inflamación periférica en EHM. Se analizaron los niveles de expresión de genes, factores de transcripción y miARNs en este subtipo de linfocitos mediante secuenciación de alto rendimiento (RNA-seq y miRNA-seq). El análisis individual de cada grupo de datos mostró diferencias de expresión de ARNm y miARN, así como las vías biológicas alteradas en los linfocitos CD4+ comparando pacientes cirróticos con y sin EHM. Encontramos alteraciones en 167 ARNm y 20 rutas biológicas en los pacientes con EHM, incluyendo los receptores tipo Toll, la señalización de la IL-17 y las vías del metabolismo de histidina y triptófano. Trece miRNAs y 7 factores de transcripción presentaron alteraciones en los pacientes con EHM. Utilizando bases de datos para determinar sus genes diana, encontramos una modulación por el aumento de miR-494-39, miR-656-3p y miR-130b-3p de la expresión de TNFAIP3 (proteína A20) y ZFP36 (proteína TTP) aumentaría los niveles de citoquinas proinflamatorias como IL-17 y TNF¿. Finalmente, estudiamos el repertorio de receptores de células T (TCR) de pacientes control, y de pacientes cirróticos con y sin EHM, a partir del conjunto de datos de RNA-seq procedentes de células T CD4+ aisladas previamente. Dado que los experimentos de RNA-seq contienen genes del TCR en una fracción de los datos, se puede analizar el repertorio sin necesidad de generar datos adicionales. Tras el alineamiento de las lecturas con la base de datos de los genes VDJ realizada por la herramienta MiXCR, recuperamos entre 498-1114 cadenas TCR beta distintas por paciente. Los resultados mostraron un bajo número de clones públicos (convergencia clonal), una alta diversidad (expansión clonal) y una elevada similitud en la arquitectura de la secuencia dentro de los repertorios, independientemente del estado inmunitario de los 3 grupos de pacientes. Además, detectamos una sobrerrepresentación significativa de los TCRs relacionados con la enfermedad celíaca y la enfermedad inflamatoria intestinal en los repertorios de los pacientes con EHM. / [CA] L'objectiu principal d'aquest treball va ser conèixer les alteracions immunològiques associades a la inflamació perifèrica que desencadenen deteriorament cognitiu en els pacients cirròtics amb encefalopatia hepàtica mínima (EHM). Aquests canvis poden ser monitoritzats com cascades de senyalització al llarg dels tipus cel·lulars del sistema immune. Com a estudi preliminar, es van analitzar els canvis en l'expressió gènica (transcriptòmica), els metabòlits de plasma (metabolòmica) i un conjunt de citocines extracel·lulars en mostres de sang de pacients cirròtics amb i sense EHM. Els resultats de l'anàlisi transcriptòmica van recolzar la hipòtesi d'alternances en les poblacions cel·lulars de limfòcits Th1/Th2 i Th17 com a principals impulsors de la EHM. L'anàlisi clúster de les molècules del sèrum va donar com a resultat 6 grups de compostos químicament similars. També s'ha realitzat una anàlisi d'integració multiòmica per detectar les relacions entre els components intra i extracel·lulars que podrien contribuir a la inducció del deteriorament cognitiu. Els resultats d'aquesta anàlisi d'integració van suggerir una relació entre les citocines CCL20, CX3CL1, CXCL13, IL-15, IL-22 i IL-6 amb l'alteració de la quimiotaxis, així com un vincle entre els fosfolípids insaturats de cadena llarga i l'augment del transport d'àcids grassos i la producció de prostaglandines. Estudis previs suggereixen que un canvi en la inflamació perifèrica, orquestrat principalment per les cèl·lules T CD4+, és un factor crític que desencadena el deteriorament cognitiu en EHM. La segona part de la tesi es va centrar en la comprensió de les rutes genètiques i els mecanismes pels quals les alteracions en els limfòcits CD4+ poden contribuir a la inflamació perifèrica en EHM. Es van analitzar els nivells d'expressió de gens, factors de transcripció i miARNs en aquest subtipus de limfòcits mitjançant seqüenciació d'alt rendiment (RNA-seq i miRNA-seq). L'anàlisi individual de cada grup de dades va mostrar les diferències d'expressió d'ARNm i miARN, així com les vies biològiques alterades en els limfòcits CD4+ comparant pacients cirròtics amb i sense EHM. Trobàrem alteracions en 167 ARNm i 20 rutes biològiques en els pacients amb EHM, incloent els receptors tipus Toll, la senyalització de la IL-17 i les vies del metabolisme de la histidina i el triptòfan. Tretze miRNAs i 7 factors de transcripció van presentar alteracions en els pacients amb EHM. Després utilitzàrem bases de dades per determinar els seus gens diana, els quals van resultar ser codificants per proteïnes clau implicades en el canvi immunològic que desencadena la EHM. Per exemple, la modulació per l'augment de miR-494-39, miR-656-3p i miR-130b-3p de l'expressió de TNFAIP3 (proteïna A20) i ZFP36 (proteïna TTP) augmentaria els nivells de citocines proinflamatòries com IL-17 i TNF¿. L'última part de la tesi comprèn un cas pràctic en el qual s'estudia el repertori de receptors de cèl·lules T (TCR) de pacients control, i de pacients cirròtics amb i sense EHM, a partir del conjunt de dades de RNA-seq procedents de cèl·lules T CD4+ aïllades prèviament. Atès que els experiments de RNA-seq contenen gens del TCR en una fracció de les dades, es crea una oportunitat per a l'anàlisi del repertori sense necessitat de generar dades addicionals, el qual redueix la quantitat i els costos de les mostres. Després de l'alineament de les lectures amb la base de dades dels gens VDJ realitzada per l'eina MiXCR, recuperàrem entre 498-1114 cadenes TCR beta diferents per pacient. Els resultats van mostrar un baix nombre de clons públics (convergència clonal), una alta diversitat (expansió clonal) i una elevada similitud en l'arquitectura de la seqüència dins dels repertoris, independentment de l'estat immunitari dels 3 grups de pacients. A més, detectàrem una sobrerepresentació significativa dels TCRs relacionats amb la malaltia celíaca i la malaltia inflamatòria intestinal en els repertoris dels pacients amb EHM. / [EN] The main objective of this work was to understand the immunological alterations associated with the peripheral inflammation that trigger minimal hepatic encephalopathy (MHE) in patients with cirrhosis. These changes can be monitored through the signaling cascades of different immune system cell types. In this work, in a preliminary study, changes in gene expression (transcriptomics), plasma metabolites (metabolomics), and a panel of extracellular cytokines were analyzed in blood samples from patients with cirrhosis with and without MHE. Transcriptomics analysis supported the hypothesis that alternations in the Th1/Th2 and Th17 lymphocyte cell populations are the major drivers of MHE. Cluster analysis of serum molecules highlighted 6 groups of chemically similar compounds. We also developed a multi-omic integration analysis pipeline to detect covariation between intra- and extracellular components that could contribute to the induction of cognitive impairment. Results of this integrative analysis suggested a relationship between cytokines CCL20, CX3CL1, CXCL13, IL-15, IL-22, and IL-6 and altered chemotaxis, as well as a link between long-chain unsaturated phospholipids and increased fatty acid transport and prostaglandin production. A shift in peripheral inflammation in patients with MHE, mainly orchestrated by CD4+ T cells, had been proposed in previous studies as a critical factor that triggers cognitive impairment. The second part of this thesis focused on understanding the pathways and mechanisms by which alterations in CD4+ lymphocytes may contribute to peripheral inflammation in MHE. Thus, the expression levels of genes, transcription factors, and miRNAs were analyzed in this lymphocyte subtype by high throughput sequencing (RNA-seq and miRNA-seq). Separate analysis of each dataset showed mRNA and miRNA expression differences and altered biological pathways in CD4+ lymphocytes when compared to patients with cirrhosis with and without MHE. We found alterations in 167 mRNAs and 20 pathways in patients with MHE, including toll-like receptors, IL-17 signaling, histidine, and tryptophan metabolism pathways. In addition, 13 miRNAs and 7 transcription factors presented alterations in patients with MHE. We used public databases to determine the target genes of these regulatory molecules and found that increased miR-494-39, miR-656-3p, and miR-130b-3p expression may modulate TNFAIP3 (A20) and ZFP36 (TTP) to increase levels of pro-inflammatory cytokines such as IL-17 and TNF¿. Finally, we present a case study of the T-cell receptor (TCR) repertoire profiles of control patients and patients with cirrhosis with and without MHE obtained from the bulk RNA-seq dataset previously generated from isolated CD4+ T cells. Given that RNA-seq experiments contain the TCR genes in a fraction of the data, the receptor repertoire analysis without the need to generate additional data is possible. After read alignment to the VDJ genes was performed with the MiXCR tool, we successfully recovered 498-1,114 distinct TCR beta chains per patient. Results showed fewer public clones (clonal convergence), higher diversity (clonal expansion), and elevated sequence architecture similarity within repertoires, independently of the immune status of the 3 groups of patients. Additionally, we detected significant overrepresentation of celiac disease and inflammatory bowel disease related TCRs in MHE patient repertoires. To the best of our knowledge, this is one of the few studies to have shown a step-by-step pipeline for the analysis of immune repertoires using whole transcriptome RNA-seq reads as source data. In conclusion, our work identified potentially relevant molecular mechanisms of the changes in the immune system associated with the onset of MHE in patients with cirrhosis. Future work with a large sample cohort will be required to validate these results in terms of biomarker determination and the development of new, more effective treatments for MHE. / Rubio Martínez-Abarca, MT. (2022). Multi-omic data integration study of immune system alterations in the development of minimal hepatic encephalopathy in patients with liver cirrhosis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/185116
82

Modelización de la variación dimensional de los tejidos de punto por recogida durante todo el proceso productivo

Llinares Berenguer, Jorge Óscar 24 October 2022 (has links)
Tesis por compendio / [ES] El objetivo de esta tesis se considera de gran relevancia para los técnicos de las industrias textiles de género de punto, ya que contribuye a simplificar enormemente los cálculos productivos en las empresas de género de punto por trama. Ofrece un método eficaz para predecir el encogimiento longitudinal, transversal y al ancho de los tejidos de punto después de los procesos de tejeduría, tintura y acabados a partir de la forma dimensional que adopte la malla. Esta investigación se ha realizado con el análisis de más de 700 muestras de tejido extraídas de sus respectivas partidas de tejido. Con este análisis se han obtenido modelos de regresión lineal. Después de la verificación de los resultados obtenidos se validan los modelos, apreciando mínimos errores que verifican su aplicabilidad. Esta Tesis Doctoral comienza con el análisis de la variación dimensional de las tres estructuras fundamentales: interlock, 1x1 rib y single jersey. Durante los procesos de tejeduría, tintura y acabado de los tejidos de punto, se pueden dar una serie de circunstancias que pueden alterar la calidad del producto final del tejido y por consiguiente su transmisión directa al artículo al que va a ser destinado. Uno de estos factores que ha creado mucha incertidumbre en su trabajo a los técnicos de las industrias textiles ha sido la estabilidad dimensional de los tejidos de punto. La aplicación de los resultados de la Tesis puede proporcionar un importante ahorro de tiempo a las empresas de género de punto y, en consecuencia, un ahorro de inversión en stock de productos intermedios. Con la aplicación de los modelos desarrollados, las empresas no necesitan utilizar los métodos de cálculo comunes consistentes en la aplicación de la norma UNE EN ISO 6330-2012, que requiere un día de parada en la producción hasta la obtención de los resultados. También en esta tesis doctoral se han propuesto modelos que expliquen la variabilidad de la longitud del hilo absorbido por una malla, en cada una de las tres estructuras fundamentales, a partir de modelos que utilizan otras variables mucho más sencillas de analizar. De esta forma se deja de un lado el cálculo tradicional utilizado basado en la norma UNE-EN 14970, ya que este procedimiento es algo engorroso, requiriendo mucho tiempo y un aparato de medición del hilo. Con la utilización de los modelos propuestos se agiliza la estimación de la longitud de malla entre los estados de relajación propuestos, dos en tejeduría (Tejeduría y relajación en seco y Tejeduría y relajación en húmedo) y dos en tintura (Tintura y relajación en seco y tintura y relajación en húmedo). / [CA] L'objectiu d'aquesta tesi es considera de gran rellevància per als tècnics de les indústries tèxtils de gènere de punt, ja que contribueix a simplificar enormement els càlculs productius a les empreses de gènere de punt per trama. Ofereix un mètode eficaç per predir l'encongiment longitudinal i transversal dels teixits de punt després dels processos de teixidura, tintura i acabats a partir de la forma dimensional que adopte la malla. Aquesta investigació s'ha fet amb l'anàlisi de més de 700 mostres de teixit extretes de les respectives partides de teixit. Amb aquesta anàlisi s'han obtingut models de regressió lineal. Després de la verificació dels resultats obtinguts es validen els models, apreciant mínims errors que verifiquen la seua aplicabilitat. Aquesta Tesi Doctoral comença amb l'anàlisi de la variació dimensional de les tres estructures fonamentals: interlock, 1x1 rib i single jersei. Durant els processos de teixidura, tintura i acabat dels teixits de punt, es poden donar una sèrie de circumstàncies que poden alterar la qualitat del producte final del teixit i per tant la seva transmissió directa a l'article a què serà destinat. Un d'aquests factors que ha creat molta incertesa a la feina als tècnics de les indústries tèxtils ha estat l'estabilitat dimensional dels teixits de punt. L'aplicació dels resultats de la Tesi pot proporcionar un important estalvi de temps a les empreses de gènere de punt i, en conseqüència, un estalvi d'inversió en estoc de productes intermedis. Amb l'aplicació dels models desenvolupats, les empreses no necessiten utilitzar els mètodes de càlcul comuns consistents en l'aplicació de la norma UNE EN ISO 6330-2012, que requereix un dia de parada a la producció fins a l'obtenció dels resultats. També en aquesta tesi doctoral s'han proposat models que expliquen la variabilitat de la longitud del fil absorbit per una malla, en cadascuna de les tres estructures fonamentals, a partir de models que utilitzen altres variables molt més senzilles d'analitzar. D'aquesta manera es deixa d'una banda el càlcul tradicional utilitzat basat en la norma UNE-EN 14970, ja que aquest procediment és una mica molest, requerint molt de temps i un aparell de mesura del fil. Amb la utilització dels models proposats s'agilitza l'estimació de la longitud de malla entre els estats de relaxació proposats, dos en teixidura (Teixidura i relaxació en sec i Teixidura i relaxació en humit) i dos en tintura (Tintura i relaxació en sec i tintura i relaxació en humit). / [EN] The objective of this thesis is considered of great relevance for the technical of the knitwear textile industries, since it greatly simplifies the productive calculations in weft knitting companies. It offers an effective method for predicting the longitudinal and transverse shrinkage of knitted fabrics after the knitting, dyeing and finishing processes, based on the dimensional shape adopted by the loop. This research has been carried out with the analysis of more than 700 knitting samples extracted from their respective fabrics items. With this analysis we have obtained linear regression models. After verification of the results obtained, the models are validated, appreciating minimum errors that verify their applicability. This Doctoral Thesis begins with the analysis of the dimensional variation of the three fundamental structures: interlock, 1x1 rib and single jersey. During the knitting, dyeing and finishing processes of knitted fabrics, can be given a series of circumstances that can alter the quality of the final product of the fabric and therefore its direct transmission to the article to which it is going to be intended. One of these factors that has created a lot of uncertainty in your work technical of the textile industries has been the dimensional stability of knitted fabrics. The application of the results of the Thesis can provide a significant save time for knitting companies and, consequently, an investment savings in stock of intermediate products. With the application of developed models, companies do not need to use the calculation methods consisting of the application of the UNE EN ISO 6330-2012 standard, which It requires a day of stoppage in production until the results are obtained. Also in this doctoral thesis models have been proposed that explain the variability of the length of the thread absorbed by a loop, in each of the three fundamental structures, from models that use other variables much easier to analyze. In this way, it leaves aside the traditional calculation used based on the UNE-EN 14970 standard, since this procedure is somewhat cumbersome, requiring a lot of time and a thread measurement. With the use of the proposed models, the estimation of the loop length between the proposed relaxation states, two in knitting (knitting and dry relaxation and knitting and wet relaxation) and two in dyeing (dyeing and dry relaxation and dyeing and wet relaxation). / Llinares Berenguer, JÓ. (2022). Modelización de la variación dimensional de los tejidos de punto por recogida durante todo el proceso productivo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/188844 / Compendio
83

Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos

Barceló Cerdá, Susana 04 May 2016 (has links)
[EN] Statistical Process Control (SPC) and the Automatic Process Control (APC) are two control philosophies have evolved independently until recently. The overall objective of both APC and SPC is to optimize the performance of processes, reducing the variability of the resulting characteristics around the desired values. The fundamentals of the two disciplines arise from the idea that the whole process has operation variations. These variations may affect, to a greater or lesser extent, the final product quality and the process productivity. The two methodologies conceptualize processes and control in different ways, they originated in different industrial sectors and have evolved independently, until the interest to integrate them in the control of industrial processes was deduced. It was warned that they could be complementary rather than conflicting methodologies as they were understood until then. The possibility of combining the advantages of both, integrating them into a new control paradigm was explored. First, the problem of identifying and estimating a process model is considered. Controlled variables in this model are the main feature of product quality and a productivity variable. The latter is innovative since the productivity variables are measured, but they are not considered as controlled variables. For this, two methods of multivariate time series are used, the Box-Jenkins multiple transfer function in the parsimonious way and the impulse response function obtained by Partial Least Squares regression (Time Series-Partial Least Squares, TS-PLS). These two methods were compared taking into account different aspects such as the simplicity of the modeling process in the stages of identification, estimation and model validation, as well as the utility of graphical tools that provide both methodologies, the goodness of fit obtained, and the simplicity of the mathematical structure of the model. The DMC (Dynamic Matrix Control) controller, an automatic control algorithm belonging to the family of MPC (Model Predictive Control) controllers, is derived from the estimated Box-Jenkins multiple transfer function that has been selected as the most suitable for this kind of processes. An optimal tuning method to maximize the controller performance, applying experimental design 2k-p, is presented. Finally, an integrated control system MESPC (Multivariate Engineering Statistical Process Control) whose monitoring component has been implemented applying latent structures based multivariate statistical process control methods (Lsb-MSPC), has been developed. The monitoring module is designed to act as both process and DMC controller supervisor. To do this, we estimate a NOC-PCA model (Normal Operation Conditions Principal Component Analysis), which has as variables both process-related and quality-related variables, all derived from the automatic control system. From this model, and DModX graphics have been derived. We assessed the performance of MESPC system, subjecting it to simulated potential failures or special causes of variability. / [ES] El Control Estadístico de Procesos (Statistical Process Control, SPC) y el Control Automático de Procesos (Automatic Process Control, APC) son dos filosofías de control se han desarrollado hasta recientemente de forma independiente. El objetivo general tanto del SPC como del APC, es optimizar el funcionamiento de los procesos, reduciendo la variabilidad de las características resultantes en torno a los valores deseados. El fundamento de ambas disciplinas, parte de la idea de que todo proceso presenta variaciones en su funcionamiento. Estas variaciones pueden afectar en mayor o en menor medida a la calidad final del producto y a la productividad del proceso. Las dos metodologías conceptualizan los procesos y su control de diferentes formas, se originaron en diferentes sectores industriales y han evolucionado de forma independiente, hasta que se dedujo el interés de integrarlas en el control de los procesos industriales, ya que se advirtió que podían ser complementarias, antes que contrapuestas, como se entendían hasta entonces y se exploró la posibilidad de aunar las ventajas de ambas, integrándolas en un nuevo paradigma de control. Esta tesis se centra en el estudio de la integración de procedimientos multivariantes para la regulación óptima y la monitorización estadística de procesos, con el propósito de contribuir a la mejora de la calidad y de la productividad de los procesos. La metodología propuesta se ha aplicado con fines ilustrativos a un proceso MIMO de producción en continuo de Polietileno de Alta Densidad (PEAD).En primer lugar, se considera el problema de la identificación y posterior estimación de un modelo del proceso. Las variables controladas en este modelo han sido la principal característica de calidad del producto y una variable de productividad, esto último es innovador puesto que las variables de productividad se miden, pero no se consideran variables controladas. Para ello, se emplean dos metodologías de series temporales multivariantes, la obtención de la función de transferencia múltiple en forma parsimoniosa de Box-Jenkins y la obtención de la función de respuesta a impulsos mediante los modelos de regresión por mínimos cuadrados parciales (Time Series-Partial Least Squares, TS-PLS). Estas dos metodologías se han comparado teniendo en cuenta distintos aspectos como son la simplicidad del proceso de modelado en las etapas de identificación, estimación y validación del modelo, así como la utilidad de las herramientas gráficas que proporcionan ambas metodologías, la bondad de ajuste obtenida, y la simplicidad de la estructura matemática del modelo. A partir del modelo de función de transferencia múltiple estimado, elegido como el más adecuado para este tipo de procesos, se desarrolla el controlador DMC (Dynamic Matrix Control), un algoritmo de control automático que pertenece a la familia del Control Predictivo basado en Modelos (Model Predictive Control, MPC). Se presenta un método de sintonizado óptimo del controlador que permita maximizar su rendimiento, aplicando diseño de experimentos 2k-p.Finalmente, se ha desarrollado un sistema de control integrado MESPC (Multivariate Engineering Statistical Process Control), cuya componente de monitorización se ha implementado aplicando métodos de control estadístico multivariante de procesos basados en técnicas de proyección en estructuras latentes. Este módulo de monitorización se ha diseñado para que actúe como supervisor tanto del proceso como del controlador DMC. Para ello, se ha estimado un modelo NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el que han intervenido tanto variables relacionadas con el proceso como con la calidad, todas derivadas de la componente del control automático. A partir de este modelo se han derivado los gráficos y DModX. Se ha evaluado el funcionamiento del sistema MESPC, sometiéndolo a fallos potenciales o causas especiales de variabiliabilidad. / [CA] El Control Estadístic de Processos (Statistical Process Control, SPC) i del Control Automàtic de Processos (Automatic Process Control, APC) son dues filosofies de control s'han desenvolupat fins a recentment de forma independent. L'objectiu general tant del SPC com del APC, és optimitzar el funcionament dels processos, reduint la variabilitat de les característiques resultants entorn dels valors desitjats. El fonament d'ambdues disciplines, part de la idea que tot procés presenta variacions en el seu funcionament. Aquestes variacions poden afectar en major o en menor mesura a la qualitat final del producte i a la productivitat del procés. Les dues metodologies conceptualitzen els processos i el seu control de diferents formes, es van originar en diferents sectors industrials i han evolucionat de forma independent, fins que es va deduir l'interès d'integrar-les en el control dels processos industrials, ja que es va advertir que podien ser complementàries, abans que contraposades, com s'entenien fins llavors i es va explorar la possibilitat de conjuminar els avantatges d'ambdues, integrant-les en un nou paradigma de control. Aquesta tesi se centra en l'estudi de la integració de procediments multivariants per a la regulació òptima i el monitoratge estadístic de processos amb el propòsit de contribuir a la millora de la qualitat i de la productivitat dels processos. La metodologia proposada s'ha aplicat amb finalitats il·lustratives a un procés MIMO de producció en continu de Polietilè d'Alta Densitat (PEAD). En primer lloc, es considera el problema de la identificació i posterior estimació d'un model del procés. Les variables controlades en aquest model han sigut la principal característica de qualitat del producte i una variable de productivitat, açò últim és innovador ja que les variables de productivitat es mesuren, però no es consideren variables controlades. Per a açò, s'utilitzen dues metodologies de sèries temporals multivariants, l'obtenció de la funció de transferència múltiple en forma parsimòniosa de Box-Jenkins i l'obtenció de la funció de resposta a impulsos mitjançant els models de regressió per mínims quadrats parcials (Times Series-Partial Least Squares, TS-PLS). Aquestes dues metodologies s'han comparat tenint en compte diferents aspectes com són la simplicitat del procés de modelatge en les etapes d'identificació, estimació i validació del model, així com la utilitat de les eines gràfiques que proporcionen ambdues metodologies, la bondat d'ajust obtinguda, i la simplicitat de l'estructura matemàtica del model. A partir del model de funció de transferència múltiple estimat, triat com el més adequat per a aquest tipus de processos, es desenvolupa el controlador DMC (Dynamic Matrix Control), un algorisme de control automàtic que pertany a la família del Control Predictiu basat en Models (Model Predictive Control, MPC). Es presenta un mètode de sintonitzat òptim del controlador que permeta maximitzar el seu rendiment, aplicant disseny d'experiments 2k-p. Finalment, s'ha desenvolupat un sistema de control integrat MESPC (Multivariate Engineering Statistical Process Control). Per a implementar la component de monitoratge d'aquest sistema integrat s'han usat mètodes de control estadístic multivariants de processos basats en tècniques de projecció en estructures latents (Latent structures based-Multivariate Statistical Process Control). Aquest mòdul de monitoratge s'ha dissenyat perquè actue com a supervisor tant del procés com del controlador DMC. Per a açò, s'ha estimat un model NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el qual han intervingut variables relacionades tant amb el procés, com amb la qualitat, totes derivades de la component del control automàtic. A partir d'aquest model s'han derivat els gràfics i DModX. S'ha avaluat el funcionament del sistema MESPC, sotmetent-lo a fallades potencials o causes especials de / Barceló Cerdá, S. (2016). Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63442
84

The Distributed and Assembly Scheduling Problem

Hatami, Sara 16 May 2016 (has links)
Tesis por compendio / [EN] Nowadays, manufacturing systems meet different new global challenges and the existence of a collaborative manufacturing environment is essential to face with. Distributed manufacturing and assembly systems are two manufacturing systems which allow industries to deal with some of these challenges. This thesis studies a production problem in which both distributed manufacturing and assembly systems are considered. Although distributed manufacturing systems and assembly systems are well-known problems and have been extensively studied in the literature, to the best of our knowledge, considering these two systems together as in this thesis is the first effort in the literature. Due to the importance of scheduling optimization on production performance, some different ways to optimize the scheduling of the considered problem are discussed in this thesis. The studied scheduling setting consists of two stages: A production and an assembly stage. Various production centers make the first stage. Each of these centers consists of several machines which are dedicated to manufacture jobs. A single assembly machine is considered for the second stage. The produced jobs are assembled on the assembly machine to form final products through a defined assembly program. In this thesis, two different problems regarding two different production configurations for the production centers of the first stage are considered. The first configuration is a flowshop that results in what we refer to as the Distributed Assembly Permutation Flowshop Scheduling Problem (DAPFSP). The second problem is referred to as the Distributed Parallel Machine and Assembly Scheduling Problem (DPMASP), where unrelated parallel machines configure the production centers. Makespan minimization of the product on the assembly machine located in the assembly stage is considered as the objective function for all considered problems. In this thesis some extensions are considered for the studied problems so as to bring them as close as possible to the reality of production shops. In the DAPFSP, sequence dependent setup times are added for machines in both production and assembly stages. Similarly, in the DPMASP, due to technological constraints, some defined jobs can be processed only in certain factories. Mathematical models are presented as an exact solution for some of the presented problems and two state-of-art solvers, CPLEX and GUROBI are used to solve them. Since these solvers are not able to solve large sized problems, we design and develop heuristic methods to solve the problems. In addition to heuristics, some metaheuristics are also designed and proposed to improve the solutions obtained by heuristics. Finally, for each proposed problem, the performance of the proposed solution methods is compared through extensive computational and comprehensive ANOVA statistical analysis. / [ES] Los sistemas de producción se enfrentan a retos globales en los que el concepto de fabricación colaborativa es crucial para poder tener éxito en el entorno cambiante y complejo en el que nos encontramos. Una característica de los sistemas productivos que puede ayudar a lograr este objetivo consiste en disponer de una red de fabricación distribuida en la que los productos se fabriquen en localizaciones diferentes y se vayan ensamblando para obtener el producto final. En estos casos, disponer de modelos y herramientas para mejorar el rendimiento de sistemas de producción distribuidos con ensamblajes es una manera de asegurar la eficiencia de los mismos. En esta tesis doctoral se estudian los sistemas de fabricación distribuidos con operaciones de ensamblaje. Los sistemas distribuidos y los sistemas con operaciones de ensamblaje han sido estudiados por separado en la literatura. De hecho, no se han encontrado estudios de sistemas con ambas características consideradas de forma conjunta. Dada la complejidad de considerar conjuntamente ambos tipos de sistemas a la hora de realizar la programación de la producción en los mismos, se ha abordado su estudio considerando un modelo bietápico en la que en la primera etapa se consideran las operaciones de producción y en la segunda se plantean las operaciones de ensamblaje. Dependiendo de la configuración de la primera etapa se han estudiado dos variantes. En la primera variante se asume que la etapa de producción está compuesta por sendos sistemas tipo flowshop en los que se fabrican los componentes que se ensamblan en la segunda etapa (Distributed Assembly Permutation Flowshop Scheduling Problem o DAPFSP). En la segunda variante se considera un sistema de máquinas en paralelo no relacionadas (Distributed Parallel Machine and Assembly Scheduling Problem o DPMASP). En ambas variantes se optimiza la fecha de finalización del último trabajo secuenciado (Cmax) y se contempla la posibilidad que existan tiempos de cambio (setup) dependientes de la secuencia de trabajos fabricada. También, en el caso DPMASP se estudia la posibilidad de prohibir o no el uso de determinadas máquinas de la etapa de producción. Se han desarrollado modelos matemáticos para resolver algunas de las variantes anteriores. Estos modelos se han resuelto mediante los programas CPLEX y GUROBI en aquellos casos que ha sido posible. Para las instancias en los que el modelo matemático no ofrecía una solución al problema se han desarrollado heurísticas y metaheurísticas para ello. Todos los procedimientos anteriores han sido estudiados para determinar el rendimiento de los diferentes algoritmos planteados. Para ello se ha realizado un exhaustivo estudio computacional en el que se han aplicado técnicas ANOVA. Los resultados obtenidos en la tesis permiten avanzar en la comprensión del comportamiento de los sistemas productivos distribuidos con ensamblajes, definiendo algoritmos que permiten obtener buenas soluciones a este tipo de problemas tan complejos que aparecen tantas veces en la realidad industrial. / [CA] Els sistemes de producció s'enfronten a reptes globals en què el concepte de fabricació col.laborativa és crucial per a poder tindre èxit en l'entorn canviant i complex en què ens trobem. Una característica dels sistemes productius que pot ajudar a aconseguir este objectiu consistix a disposar d'una xarxa de fabricació distribuïda en la que els productes es fabriquen en localitzacions diferents i es vagen acoblant per a obtindre el producte final. En estos casos, disposar de models i ferramentes per a millorar el rendiment de sistemes de producció distribuïts amb acoblaments és una manera d'assegurar l'eficiència dels mateixos. En esta tesi doctoral s'estudien els sistemes de fabricació distribuïts amb operacions d'acoblament. Els sistemes distribuïts i els sistemes amb operacions d'acoblament han sigut estudiats per separat en la literatura però, en allò que es coneix, no s'han trobat estudis de sistemes amb ambdós característiques conjuntament. Donada la complexitat de considerar conjuntament ambdós tipus de sistemes a l'hora de realitzar la programació de la producció en els mateixos, s'ha abordat el seu estudi considerant un model bietàpic en la que en la primera etapa es consideren les operacions de producció i en la segona es plantegen les operacions d'acoblament. Depenent de la configuració de la primera etapa s'han estudiat dos variants. En la primera variant s'assumix que l'etapa de producció està composta per sengles sistemes tipus flowshop en els que es fabriquen els components que s'acoblen en la segona etapa (Distributed Assembly Permutation Flowshop Scheduling Problem o DAPFSP). En la segona variant es considera un sistema de màquines en paral.lel no relacionades (Distributed Parallel Machine and Assembly Scheduling Problem o DPMASP). En ambdós variants s'optimitza la data de finalització de l'últim treball seqüenciat (Cmax) i es contempla la possibilitat que existisquen temps de canvi (setup) dependents de la seqüència de treballs fabricada. També, en el cas DPMASP s'estudia la possibilitat de prohibir o no l'ús de determinades màquines de l'etapa de producció. S'han desenvolupat models matemàtics per a resoldre algunes de les variants anteriors. Estos models s'han resolt per mitjà dels programes CPLEX i GUROBI en aquells casos que ha sigut possible. Per a les instàncies en què el model matemàtic no oferia una solució al problema s'han desenrotllat heurístiques i metaheurísticas per a això. Tots els procediments anteriors han sigut estudiats per a determinar el rendiment dels diferents algoritmes plantejats. Per a això s'ha realitzat un exhaustiu estudi computacional en què s'han aplicat tècniques ANOVA. Els resultats obtinguts en la tesi permeten avançar en la comprensió del comportament dels sistemes productius distribuïts amb acoblaments, definint algoritmes que permeten obtindre bones solucions a este tipus de problemes tan complexos que apareixen tantes vegades en la realitat industrial. / Hatami, S. (2016). The Distributed and Assembly Scheduling Problem [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/64072 / Compendio
85

Estrategia y Filantropía, aunando objetivos de negocios y sociales. Un Modelo para analizar los patrones de filantropía estratégica de las empresas

García Ortega, Beatriz 12 September 2018 (has links)
Tesis por compendio / The responsible behavior of companies is a field to keep exploring due to its theoretical and practical complexity, its different contexts and connotations, its growing questioning and demand by society and its rapid evolution. This thesis focuses on the study and deepening on the role of companies in society, and in particular on their altruistic or philanthropic behavior and their social responsibility, with community involvement as a key axis. It consists of three blocks, with approaches and techniques that offer new contributions. The first one analyzes the philanthropic behavior and the community involvement of the companies listed in the stock indexes of Spain, France, Germany and Holland, through the use of terminology in the literature and memories of sustainability and the formulas to channel the help and the beneficiaries. The variables that most influence the use of the terms are the country and especially the incomes of the companies, being the ones with less weight the number of employees and the sector. It is also inferred that these activities require significant economic resources. The results show that the companies analyzed are aware of their role and actively participate in their communities. The main contribution of this work is its focus on the community and the connection with literature. The bibliometric analysis through an iterative process has proved useful for detecting terms related to the subject. The other two works analyze the behavior of companies in a controversial sector such as mining, an example of the development of corporate social responsibility (CSR) to improve its position and image, obtain a social license to operate (SLO) and reduce resistance to its implementation and operations. The sector, while being a leader in CSR, faces great challenges. The research starts with the analysis of the letters of the CEOs of 32 leading mining companies and their sustainability reports to analyze the influence of discourse in its strategy for obtaining SLO and community involvement. In addition, we analyze the years 2011 and 2015, to see the evolution in the speech and whether it affects the strategy on the SLO and the community. These letters are highlighted in the literature for their ability to communicate the orientation of companies in relation to social issues and community involvement. The results show the orientation towards obtaining legitimacy, credibility and trust in the communities where they operate, so that it is translated in the achievement of the SLO. In addition, it is observed how the evolution of the discourse involves changes of strategies and also a commitment on behalf of the companies to reduce the dependence on the mining. On the other hand, there is an increase in works in the mining sector based on the perceptions of stakeholders, who are those granting the SLO. In the literature the difficulty of its understanding is well identified and so the study of the stakeholders perception in contrast to the one of the companies is found of interest. Our research is carried out through a qualitative interview methodology taking as sample a large area with several Latin American countries. The results show different perceptions between companies and stakeholders on the analysis and diagnosis of the current situation and on the degree of implementation and effectiveness of CSR policies. The stakeholders demand greater objectivity and credibility in the reports; They find companies minimizing impacts and overestimating their benefits and community involvement. On the contrary, they agree on the need for a multi-actor model, with greater participation of the community, and on the role of NGOs and governments in defending the community and to avoid conflicts and rejections. The results help to understand the different realities perceived and the causes of rejection, as a way to improve the CSR policies. / El comportamiento responsable de las empresas es un campo a seguir explorando por su complejidad teórica y práctica, sus diversos contextos y connotaciones, su creciente cuestionamiento y exigencia por la sociedad y su rápida evolución. Esta tesis se orienta hacia el estudio y profundización sobre el papel de las empresas en la sociedad, y en particular su comportamiento altruista o filantrópico y su responsabilidad social, con la participación en la comunidad como eje clave. Consta de tres bloques, con planteamientos y técnicas que ofrecen nuevas aportaciones. El primero analiza el comportamiento filantrópico y la participación en la comunidad de las empresas que cotizan en los índices bursátiles de España, Francia, Alemania y Holanda, a través del uso de la terminología en la literatura y memorias de sostenibilidad y las fórmulas para canalizar la ayuda y los beneficiarios. Las variables que más influyen en el uso de los términos son el país y especialmente los ingresos de las empresas, siendo las de menor peso el número de empleados y el sector. Se infiere además que estas actividades requieren de importantes recursos económicos. Los resultados muestran que las empresas analizadas son conscientes de su papel y participan activamente en sus comunidades. La principal novedad de este trabajo es su enfoque centrado en la comunidad y desde la conexión con la literatura. El análisis bibliométrico a través de un proceso iterativo muestra su utilidad para detectar términos relacionados con el tema. Los otros dos trabajos analizan el comportamiento de empresas en un sector controvertido como el de la minería, exponente del desarrollo de la responsabilidad social corporativa (RSC) para mejorar su posición e imagen, obtener licencia social para operar (SLO) y reducir la resistencia a su implantación y actividad. El sector, aun siendo puntero en la RSC, afronta grandes desafíos. Así, la investigación parte del análisis de las cartas de los CEOs de 32 destacadas empresas mineras y las memorias de sostenibilidad para analizar la influencia del discurso en su estrategia para la obtención de la SLO y en la participación en sus comunidades. Además, se analizan los años 2011 y 2015, para ver la evolución en el discurso y si afecta a la estrategia sobre la SLO y la comunidad. Estas cartas son destacadas en la literatura por su capacidad de comunicar la orientación de las empresas en relación a asuntos sociales y a la participación de la comunidad. Los resultados muestran la orientación hacia la obtención de legitimidad, credibilidad y confianza por parte de la comunidad, para que ésta se traduzca en la obtención de la SLO. Además, se observa cómo la evolución del discurso se traduce en cambios de estrategias y un compromiso por parte de las empresas por reducir la dependencia de la minería. Por otro lado se observa un aumento de trabajos en el sector minero desde las percepciones de los stakeholders, que son los que otorgan la SLO. En la literatura se reconoce la dificultad de comprensión y por ello se encuentra interesante el estudio de la percepción de los stakeholders en contraste con la de las empresas. Se realiza mediante entrevista cualitativa tomando como muestra una amplia zona con países de Latinoamérica. Los resultados muestran diferentes percepciones entre empresas y stakeholders en el análisis y diagnóstico de la situación actual y en el grado de implementación y eficacia de las políticas de RSC. Desde los stakeholders se demanda mayor objetividad y credibilidad en las memorias; consideran que las empresas minimizan los impactos y ensalzan sus beneficios y la participación de la comunidad. Por contra, coinciden en la necesidad de un modelo multiactor, con mayor participación de la comunidad, y en el papel de las ONGs y los gobiernos en defensa de la comunidad y para evitar conflictos y rechazos. Los resultados ayudan a la comprensión de las distintas realidades percib / El comportament responsable de les empreses és un camp a seguir explorant per la complexitat teòrica i pràctica, els diversos contextos i connotacions, el creixent qüestionament i exigència per part de la societat i la seua ràpida evolució. Aquesta tesi s'orienta cap a l'estudi i aprofundiment sobre el paper de les empreses en la societat, i en particular el seu comportament altruista o filantròpic i la seua responsabilitat social, amb la participació en la comunitat com a eix clau. Consta de tres blocs, amb plantejaments i tècniques que ofereixen noves aportacions. El primer analitza el comportament filantròpic i la participació en la comunitat de les empreses que cotitzen en els índexs borsaris d'Espanya, França, Alemanya i Holanda, a través de l'ús de la terminologia en la literatura i memòries de sostenibilitat i les fórmules per canalitzar la ajuda i els beneficiaris. Les variables que més influeixen en l'ús dels termes són el país i especialment els ingressos de les empreses, sent les de menor pes el nombre d'empleats i el sector. S'infereix a més que aquestes activitats requereixen d'importants recursos econòmics. Els resultats mostren que les empreses analitzades són conscients del seu paper i participen activament en les seues comunitats. La principal novetat d'aquest treball és el seu plantejament centrat en la comunitat i des de la connexió amb la literatura. L'anàlisi bibliomètrica a través d'un procés iteratiu mostra la seua utilitat per detectar termes relacionats amb el tema. Els altres dos treballs analitzen el comportament d'empreses en un sector controvertit com el de la mineria, exponent del desenvolupament de la responsabilitat social corporativa (RSC) per millorar la seua posició i imatge, obtenir llicència social per operar (SLO) i reduir la resistència a la seua implantació i activitat. El sector, tot i ser capdavanter en la RSC, afronta grans reptes. Així, la investigació parteix de l'anàlisi de les cartes dels CEOs de 32 destacades empreses mineres i les memòries de sostenibilitat per a analitzar la influència del discurs en la seua estratègia per a l'obtenció de la SLO i en la participació en les seves comunitats. A més, s'analitzen els anys 2011 i 2015, per veure l'evolució en el discurs i si afecta a l'estratègia sobre la SLO i la comunitat. Aquestess cartes són destacades en la literatura per la seua capacitat de comunicar l'orientació de les empreses en relació a assumptes socials i a la participació de la comunitat. Els resultats mostren l'orientació cap a l'obtenció de legitimitat, credibilitat i confiança per part de la comunitat, perquè aquesta es tradueixi en l'obtenció de la SLO. A més, s'observa com l'evolució del discurs es tradueix en canvis d'estratègies i un compromís per part de les empreses per reduir la dependència de la mineria. D'altra banda s'observa un augment de treballs en el sector miner des de les percepcions dels stakeholders, que són els que atorguen la SLO. En la literatura es reconeix la dificultat de comprensió i per això es troba interessant l'estudi de la percepció dels stakeholders en contrast amb la de les empreses. Es realitza mitjançant entrevista qualitativa, prenent com a mostra una àmplia zona amb països de Llatinoamèrica. Els resultats mostren diferents percepcions entre empreses i stakeholders en l'anàlisi i diagnòstic de la situació actual i en el grau d'implementació i eficàcia de les polítiques de RSC. Des dels stakeholders es demanda major objectivitat i credibilitat en les memòries; consideren que les empreses minimitzen els impactes i enalteixen els seus beneficis i la participació de la comunitat. Per contra, coincideixen en la necessitat d'un model multiactor, amb major participació de la comunitat, i en el paper de les ONGs i els governs en defensa de la comunitat i per evitar conflictes i rebutjos. Els resultats ajuden a la comprensió de les diferents realitats percebudes i / García Ortega, B. (2017). Estrategia y Filantropía, aunando objetivos de negocios y sociales. Un Modelo para analizar los patrones de filantropía estratégica de las empresas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90438 / Compendio
86

Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation

Vitale, Raffaele 03 November 2017 (has links)
The present Ph.D. thesis, primarily conceived to support and reinforce the relation between academic and industrial worlds, was developed in collaboration with Shell Global Solutions (Amsterdam, The Netherlands) in the endeavour of applying and possibly extending well-established latent variable-based approaches (i.e. Principal Component Analysis - PCA - Partial Least Squares regression - PLS - or Partial Least Squares Discriminant Analysis - PLSDA) for complex problem solving not only in the fields of manufacturing troubleshooting and optimisation, but also in the wider environment of multivariate data analysis. To this end, novel efficient algorithmic solutions are proposed throughout all chapters to address very disparate tasks, from calibration transfer in spectroscopy to real-time modelling of streaming flows of data. The manuscript is divided into the following six parts, focused on various topics of interest: Part I - Preface, where an overview of this research work, its main aims and justification is given together with a brief introduction on PCA, PLS and PLSDA; Part II - On kernel-based extensions of PCA, PLS and PLSDA, where the potential of kernel techniques, possibly coupled to specific variants of the recently rediscovered pseudo-sample projection, formulated by the English statistician John C. Gower, is explored and their performance compared to that of more classical methodologies in four different applications scenarios: segmentation of Red-Green-Blue (RGB) images, discrimination of on-/off-specification batch runs, monitoring of batch processes and analysis of mixture designs of experiments; Part III - On the selection of the number of factors in PCA by permutation testing, where an extensive guideline on how to accomplish the selection of PCA components by permutation testing is provided through the comprehensive illustration of an original algorithmic procedure implemented for such a purpose; Part IV - On modelling common and distinctive sources of variability in multi-set data analysis, where several practical aspects of two-block common and distinctive component analysis (carried out by methods like Simultaneous Component Analysis - SCA - DIStinctive and COmmon Simultaneous Component Analysis - DISCO-SCA - Adapted Generalised Singular Value Decomposition - Adapted GSVD - ECO-POWER, Canonical Correlation Analysis - CCA - and 2-block Orthogonal Projections to Latent Structures - O2PLS) are discussed, a new computational strategy for determining the number of common factors underlying two data matrices sharing the same row- or column-dimension is described, and two innovative approaches for calibration transfer between near-infrared spectrometers are presented; Part V - On the on-the-fly processing and modelling of continuous high-dimensional data streams, where a novel software system for rational handling of multi-channel measurements recorded in real time, the On-The-Fly Processing (OTFP) tool, is designed; Part VI - Epilogue, where final conclusions are drawn, future perspectives are delineated, and annexes are included. / La presente tesis doctoral, concebida principalmente para apoyar y reforzar la relación entre la academia y la industria, se desarrolló en colaboración con Shell Global Solutions (Amsterdam, Países Bajos) en el esfuerzo de aplicar y posiblemente extender los enfoques ya consolidados basados en variables latentes (es decir, Análisis de Componentes Principales - PCA - Regresión en Mínimos Cuadrados Parciales - PLS - o PLS discriminante - PLSDA) para la resolución de problemas complejos no sólo en los campos de mejora y optimización de procesos, sino también en el entorno más amplio del análisis de datos multivariados. Con este fin, en todos los capítulos proponemos nuevas soluciones algorítmicas eficientes para abordar tareas dispares, desde la transferencia de calibración en espectroscopia hasta el modelado en tiempo real de flujos de datos. El manuscrito se divide en las seis partes siguientes, centradas en diversos temas de interés: Parte I - Prefacio, donde presentamos un resumen de este trabajo de investigación, damos sus principales objetivos y justificaciones junto con una breve introducción sobre PCA, PLS y PLSDA; Parte II - Sobre las extensiones basadas en kernels de PCA, PLS y PLSDA, donde presentamos el potencial de las técnicas de kernel, eventualmente acopladas a variantes específicas de la recién redescubierta proyección de pseudo-muestras, formulada por el estadista inglés John C. Gower, y comparamos su rendimiento respecto a metodologías más clásicas en cuatro aplicaciones a escenarios diferentes: segmentación de imágenes Rojo-Verde-Azul (RGB), discriminación y monitorización de procesos por lotes y análisis de diseños de experimentos de mezclas; Parte III - Sobre la selección del número de factores en el PCA por pruebas de permutación, donde aportamos una guía extensa sobre cómo conseguir la selección de componentes de PCA mediante pruebas de permutación y una ilustración completa de un procedimiento algorítmico original implementado para tal fin; Parte IV - Sobre la modelización de fuentes de variabilidad común y distintiva en el análisis de datos multi-conjunto, donde discutimos varios aspectos prácticos del análisis de componentes comunes y distintivos de dos bloques de datos (realizado por métodos como el Análisis Simultáneo de Componentes - SCA - Análisis Simultáneo de Componentes Distintivos y Comunes - DISCO-SCA - Descomposición Adaptada Generalizada de Valores Singulares - Adapted GSVD - ECO-POWER, Análisis de Correlaciones Canónicas - CCA - y Proyecciones Ortogonales de 2 conjuntos a Estructuras Latentes - O2PLS). Presentamos a su vez una nueva estrategia computacional para determinar el número de factores comunes subyacentes a dos matrices de datos que comparten la misma dimensión de fila o columna y dos planteamientos novedosos para la transferencia de calibración entre espectrómetros de infrarrojo cercano; Parte V - Sobre el procesamiento y la modelización en tiempo real de flujos de datos de alta dimensión, donde diseñamos la herramienta de Procesamiento en Tiempo Real (OTFP), un nuevo sistema de manejo racional de mediciones multi-canal registradas en tiempo real; Parte VI - Epílogo, donde presentamos las conclusiones finales, delimitamos las perspectivas futuras, e incluimos los anexos. / La present tesi doctoral, concebuda principalment per a recolzar i reforçar la relació entre l'acadèmia i la indústria, es va desenvolupar en col·laboració amb Shell Global Solutions (Amsterdam, Països Baixos) amb l'esforç d'aplicar i possiblement estendre els enfocaments ja consolidats basats en variables latents (és a dir, Anàlisi de Components Principals - PCA - Regressió en Mínims Quadrats Parcials - PLS - o PLS discriminant - PLSDA) per a la resolució de problemes complexos no solament en els camps de la millora i optimització de processos, sinó també en l'entorn més ampli de l'anàlisi de dades multivariades. A aquest efecte, en tots els capítols proposem noves solucions algorítmiques eficients per a abordar tasques dispars, des de la transferència de calibratge en espectroscopia fins al modelatge en temps real de fluxos de dades. El manuscrit es divideix en les sis parts següents, centrades en diversos temes d'interès: Part I - Prefaci, on presentem un resum d'aquest treball de recerca, es donen els seus principals objectius i justificacions juntament amb una breu introducció sobre PCA, PLS i PLSDA; Part II - Sobre les extensions basades en kernels de PCA, PLS i PLSDA, on presentem el potencial de les tècniques de kernel, eventualment acoblades a variants específiques de la recentment redescoberta projecció de pseudo-mostres, formulada per l'estadista anglés John C. Gower, i comparem el seu rendiment respecte a metodologies més clàssiques en quatre aplicacions a escenaris diferents: segmentació d'imatges Roig-Verd-Blau (RGB), discriminació i monitorització de processos per lots i anàlisi de dissenys d'experiments de mescles; Part III - Sobre la selecció del nombre de factors en el PCA per proves de permutació, on aportem una guia extensa sobre com aconseguir la selecció de components de PCA a través de proves de permutació i una il·lustració completa d'un procediment algorítmic original implementat per a la finalitat esmentada; Part IV - Sobre la modelització de fonts de variabilitat comuna i distintiva en l'anàlisi de dades multi-conjunt, on discutim diversos aspectes pràctics de l'anàlisis de components comuns i distintius de dos blocs de dades (realitzat per mètodes com l'Anàlisi Simultània de Components - SCA - Anàlisi Simultània de Components Distintius i Comuns - DISCO-SCA - Descomposició Adaptada Generalitzada en Valors Singulars - Adapted GSVD - ECO-POWER, Anàlisi de Correlacions Canòniques - CCA - i Projeccions Ortogonals de 2 blocs a Estructures Latents - O2PLS). Presentem al mateix temps una nova estratègia computacional per a determinar el nombre de factors comuns subjacents a dues matrius de dades que comparteixen la mateixa dimensió de fila o columna, i dos plantejaments nous per a la transferència de calibratge entre espectròmetres d'infraroig proper; Part V - Sobre el processament i la modelització en temps real de fluxos de dades d'alta dimensió, on dissenyem l'eina de Processament en Temps Real (OTFP), un nou sistema de tractament racional de mesures multi-canal registrades en temps real; Part VI - Epíleg, on presentem les conclusions finals, delimitem les perspectives futures, i incloem annexos. / Vitale, R. (2017). Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90442
87

Quality by Design through multivariate latent structures

Palací López, Daniel Gonzalo 14 January 2019 (has links)
La presente tesis doctoral surge ante la necesidad creciente por parte de la mayoría de empresas, y en especial (pero no únicamente) aquellas dentro de los sectores farmacéu-tico, químico, alimentación y bioprocesos, de aumentar la flexibilidad en su rango ope-rativo para reducir los costes de fabricación, manteniendo o mejorando la calidad del producto final obtenido. Para ello, esta tesis se centra en la aplicación de los conceptos del Quality by Design para la aplicación y extensión de distintas metodologías ya exis-tentes y el desarrollo de nuevos algoritmos que permitan la implementación de herra-mientas adecuadas para el diseño de experimentos, el análisis multivariante de datos y la optimización de procesos en el ámbito del diseño de mezclas, pero sin limitarse ex-clusivamente a este tipo de problemas. Parte I - Prefacio, donde se presenta un resumen del trabajo de investigación realiza-do y los objetivos principales que pretende abordar y su justificación, así como una introducción a los conceptos más importantes relativos a los temas tratados en partes posteriores de la tesis, tales como el diseño de experimentos o diversas herramientas estadísticas de análisis multivariado. Parte II - Optimización en el diseño de mezclas, donde se lleva a cabo una recapitu-lación de las diversas herramientas existentes para el diseño de experimentos y análisis de datos por medios tradicionales relativos al diseño de mezclas, así como de algunas herramientas basadas en variables latentes, tales como la Regresión en Mínimos Cua-drados Parciales (PLS). En esta parte de la tesis también se propone una extensión del PLS basada en kernels para el análisis de datos de diseños de mezclas, y se hace una comparativa de las distintas metodologías presentadas. Finalmente, se incluye una breve presentación del programa MiDAs, desarrollado con la finalidad de ofrecer a sus usuarios la posibilidad de comparar de forma sencilla diversas metodologías para el diseño de experimentos y análisis de datos para problemas de mezclas. Parte III - Espacio de diseño y optimización a través del espacio latente, donde se aborda el problema fundamental dentro de la filosofía del Quality by Design asociado a la definición del llamado 'espacio de diseño', que comprendería todo el conjunto de posibles combinaciones de condiciones de proceso, materias primas, etc. que garanti-zan la obtención de un producto con la calidad deseada. En esta parte también se trata el problema de la definición del problema de optimización como herramienta para la mejora de la calidad, pero también para la exploración y flexibilización de los procesos productivos, con el objeto de definir un procedimiento eficiente y robusto de optimiza-ción que se adapte a los diversos problemas que exigen recurrir a dicha optimización. Parte IV - Epílogo, donde se presentan las conclusiones finales, la consecución de objetivos y posibles líneas futuras de investigación. En esta parte se incluyen además los anexos. / Aquesta tesi doctoral sorgeix davant la necessitat creixent per part de la majoria d'em-preses, i especialment (però no únicament) d'aquelles dins dels sectors farmacèutic, químic, alimentari i de bioprocessos, d'augmentar la flexibilitat en el seu rang operatiu per tal de reduir els costos de fabricació, mantenint o millorant la qualitat del producte final obtingut. La tesi se centra en l'aplicació dels conceptes del Quality by Design per a l'aplicació i extensió de diferents metodologies ja existents i el desenvolupament de nous algorismes que permeten la implementació d'eines adequades per al disseny d'ex-periments, l'anàlisi multivariada de dades i l'optimització de processos en l'àmbit del disseny de mescles, però sense limitar-se exclusivament a aquest tipus de problemes. Part I- Prefaci, en què es presenta un resum del treball de recerca realitzat i els objec-tius principals que pretén abordar i la seua justificació, així com una introducció als conceptes més importants relatius als temes tractats en parts posteriors de la tesi, com ara el disseny d'experiments o diverses eines estadístiques d'anàlisi multivariada. Part II - Optimització en el disseny de mescles, on es duu a terme una recapitulació de les diverses eines existents per al disseny d'experiments i anàlisi de dades per mit-jans tradicionals relatius al disseny de mescles, així com d'algunes eines basades en variables latents, tals com la Regressió en Mínims Quadrats Parcials (PLS). En aquesta part de la tesi també es proposa una extensió del PLS basada en kernels per a l'anàlisi de dades de dissenys de mescles, i es fa una comparativa de les diferents metodologies presentades. Finalment, s'inclou una breu presentació del programari MiDAs, que ofe-reix la possibilitat als usuaris de comparar de forma senzilla diverses metodologies per al disseny d'experiments i l'anàlisi de dades per a problemes de mescles. Part III- Espai de disseny i optimització a través de l'espai latent, on s'aborda el problema fonamental dins de la filosofia del Quality by Design associat a la definició de l'anomenat 'espai de disseny', que comprendria tot el conjunt de possibles combina-cions de condicions de procés, matèries primeres, etc. que garanteixen l'obtenció d'un producte amb la qualitat desitjada. En aquesta part també es tracta el problema de la definició del problema d'optimització com a eina per a la millora de la qualitat, però també per a l'exploració i flexibilització dels processos productius, amb l'objecte de definir un procediment eficient i robust d'optimització que s'adapti als diversos pro-blemes que exigeixen recórrer a aquesta optimització. Part IV- Epíleg, on es presenten les conclusions finals i la consecució d'objectius i es plantegen possibles línies futures de recerca arran dels resultats de la tesi. En aquesta part s'inclouen a més els annexos. / The present Ph.D. thesis is motivated by the growing need in most companies, and specially (but not solely) those in the pharmaceutical, chemical, food and bioprocess fields, to increase the flexibility in their operating conditions in order to reduce production costs while maintaining or even improving the quality of their products. To this end, this thesis focuses on the application of the concepts of the Quality by Design for the exploitation and development of already existing methodologies, and the development of new algorithms aimed at the proper implementation of tools for the design of experiments, multivariate data analysis and process optimization, specially (but not only) in the context of mixture design. Part I - Preface, where a summary of the research work done, the main goals it aimed at and their justification, are presented. Some of the most relevant concepts related to the developed work in subsequent chapters are also introduced, such as those regarding design of experiments or latent variable-based multivariate data analysis techniques. Part II - Mixture design optimization, in which a review of existing mixture design tools for the design of experiments and data analysis via traditional approaches, as well as some latent variable-based techniques, such as Partial Least Squares (PLS), is provided. A kernel-based extension of PLS for mixture design data analysis is also proposed, and the different available methods are compared to each other. Finally, a brief presentation of the software MiDAs is done. MiDAs has been developed in order to provide users with a tool to easily approach mixture design problems for the construction of Designs of Experiments and data analysis with different methods and compare them. Part III - Design Space and optimization through the latent space, where one of the fundamental issues within the Quality by Design philosophy, the definition of the so-called 'design space' (i.e. the subspace comprised by all possible combinations of process operating conditions, raw materials, etc. that guarantee obtaining a product meeting a required quality standard), is addressed. The problem of properly defining the optimization problem is also tackled, not only as a tool for quality improvement but also when it is to be used for exploration of process flexibilisation purposes, in order to establish an efficient and robust optimization method in accordance with the nature of the different problems that may require such optimization to be resorted to. Part IV - Epilogue, where final conclusions are drawn, future perspectives suggested, and annexes are included. / Palací López, DG. (2018). Quality by Design through multivariate latent structures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/115489
88

Aportaciones al modelado de la indisponibilidad de componentes y la fiabilidad humana para la mejora de la seguridad de las centrales nucleares informada en el riesgo

Martorell Aigües, Pablo 22 March 2019 (has links)
[ES] La seguridad ha sido, es y seguirá siendo una prioridad en la operación de las centrales nucleares para la producción de energía eléctrica. Uno de los grandes retos a los que se enfrenta la industria nuclear es el envejecimiento de las estructuras, sistemas y componentes (ESC) de seguridad. Actualmente, este hecho cobra especial relevancia porque un gran número de reactores está alcanzando el fin de su vida de diseño, debiendo afrontar próximamente una Revisión Periódica de Seguridad (RPS), que garantice el funcionamiento seguro de la central durante un periodo adicional denominado Opera-ción a Largo Plazo (OLP). El Análisis Probabilista de Seguridad (APS) es una herramienta fundamental para la gestión integral de la seguridad de una planta, tanto en el marco de la RPS como en la Toma de Decisiones Informada en el Riesgo (TDIR), siendo capaz de evaluar el incremento o disminución en el riesgo producido por un cambio determinado. Sin embargo, los modelos y datos actuales que lo integran no tienen en cuenta factores que influyen de forma determinante en el riesgo de una central. Por un lado, no tienen en cuenta el envejecimiento o la estrategia de pruebas y mantenimiento, en el caso del modelado de la fiabilidad e indisponibilidad de componentes. Por otro lado, no con-templan la imprecisión en el modelado de las acciones humanas, ni la inexactitud en la cuantificación de sus probabilidades de error. La presente tesis doctoral pretende actualizar y mejorar los modelos del APS, con vistas a su aplicación en el contexto de la RPS y de la TDIR. En este sentido, se establecen dos objetivos principales. En primer lugar, el desarrollo de un modelo RAM (fiabilidad, mantenibilidad y disponibilidad) dependiente del tiempo para componentes de seguridad, ajustado con datos reales de planta y con un nivel de detalle suficiente para recoger explícitamente en la edad del mismo, el efecto de las pruebas y el mantenimiento. En segundo lugar, mostrar las aplicaciones del APS para la TDIR. En primer término, se define un modelo de riesgo dependiente de la edad, a partir del mode-lo RAM previamente formulado, con el que seleccionar la mejor estrategia de pruebas y mantenimiento en un horizonte temporal dado. En segundo término, para mejorar el modelado del APS y la cuantificación de las probabilidades de error humano (PEH), se propone una metodología de evaluación de impacto en el riesgo para cambios en las acciones humanas y las Especificaciones Técnicas de Funcionamiento, que aprovecha los resultados del uso conjunto de los análisis de seguridad determinista y probabilista. Las aportaciones que conforman esta tesis doctoral se integran en la línea de investigación financiada por el Ministerio de Economía y Empresa en el proyecto ENE2016-80401-R, "Armonización de requisitos de vigilancia y mantenimiento en centrales nucleares con información en el riesgo" y la ayuda para contratos predoctorales para la formación de doctores BES-2014-067602. / [CA] La seguretat ha sigut, és i continuarà sent una prioritat en l'operació de les centrals nuclears par a la producció d'energia elèctrica. Un del grans reptes als que s'enfronta la industria nuclear es l'envelliment de les estructures, sistemes i components de seguretat. Actualment, aquest fet té especial rellevància perquè un gran nombre de reactors està arribant a la fi de la seua vida de disseny, havent d'afrontar pròximament una Revisió Periòdica de Seguretat (RPS), que garantirà el funcionament segur de la central durant un període addicional conegut com Operació a Llarg Termini (OLP). L'Anàlisi Probabilista de Seguretat es una ferramenta fonamental per a la gestió integral de la seguretat d'una planta, tant en el marc de la RPS com en la presa de decisions informades en el risc (TDIR), sent capaç d'avaluar l'increment o disminució en el risc produït per un canvi determinat. No obstant això, els models i dades actuals que ho integren no tenen en compte factors que influeixen de forma determinant en el risc d'una central. Per una banda, no consideren l'envelliment o l'estratègia de proves i manteniment, en el cas del modelat de la fiabilitat i indisponiblitat de components. Per altra banda, no contemplen la imprecisió en el modelat de les acciones humanes, ni la inexactitud en la quantificació de la probabilitat d'error de les mateixes. La present tesi doctoral pretén actualitzar i millorar els models APS, amb la intenció d'aplicar-los en el context de la RPS y la TDIR. En aquest sentit, s'estableixen dos objectius principals. En primer lloc, el desenvolupament d'un model RAM (fiabilitat, mantenibilitat i disponibilitat) dependent del temps per a components de seguretat, ajustat amb dades reals de planta i amb un nivell de detall suficient per a recollir explícitament en l'edat del mateix, la política de proves i manteniment a la que es sotmès. En segon lloc, mostrar les aplicacions de l'APS per a la TDIR. En primer terme, es defineix un model de risc dependent de l'edat, a partir del model RAM prèviament formulat, amb el qual seleccionar la millor estratègia de proves i manteniment en un horitzó temporal determinat. En segon terme, per a millorar el modelat de l'APS i la quantificació de les probabilitats d'error humà (PEH), es proposa una metodologia d'avaluació d'impacte en el risc per a canvis en les accions humanes i en les Especificacions Tècniques de Funcionament, que aprofita els resultats de l'ús conjunt dels anàlisis determinista i probabilista. Les aportacions que formen part d'aquesta tesi doctoral s'integren en la línia d'investigació finançada pel Ministeri d'Economia i Empresa en el projecte ENE2016-80401-R, "Armonización de requisitos de vigilancia y mantenimiento en centrales nucleares con información en el riesgo" i l'ajuda per a contractes predoctorals per a la formació de doctors BES-2014-067602. / [EN] Safety always has been and always will be a priority in nuclear power plant operation to generate electricity. One of the major challenges of nuclear industry is the ageing of safety-related structures, systems and components (SSC). Presently, this fact gains relevance due to several reactors are reaching their design life, having to conduct a Periodic Safety Review (PSR) that assures safety operation for an additional period better-known as Long Term Operation (LTO) Probabilistic Safety Assessment (PSA) is an essential tool in an integral NPP safety management, both PSR framework and Risk Informed Decision Making (RIDM), being able to evaluate a risk increase or decrease for any specific change on the plant. However, current PSA models and data do not consider factors, which have an impact in the overall risk of the plant. On the one hand, they do not take into account the effect of ageing nor maintenance and testing program, in the case of reliability and unavailability modelling. On the other hand, human actions modelling and their associated error probabilities are characterized by its inaccuracy and uncertainty. This Ph. Dissertation aims to update and improve PSA models, in order to apply with-in the framework of PSR and RIDM. In this sense, two main objectives are established. Firstly, the development of a time dependent RAM (reliability, availability and maintainability) for safety-related components, fitted with a historical plant data and with enough level of detail to include the effects of testing and maintenance activities in the age of the component. Secondly, it shows PSA applications of new models in RIDM. In the first place, it defines an age-dependent risk model based on the RAM model previously formulated, which helps to select the best approach of maintenance and testing activities for a specific timeline. In the second place, to improve PSA modelling and human error probabilities (HEP) quantification, a methodology is pro-posed to evaluate the risk impact of human actions and TS changes, taking advantage of combining DSA and PSA insights. The work of this thesis is part of the research supported by the Ministry of Economy and Business in the project ENE2016-80401-R, "Risk Informed Harmonization of Surveillance Requirements and Maintenance in Nuclear Power Plants", and in the Doctoral Fellowship BES-2014-067602. / Las aportaciones que conforman esta tesis doctoral se integran en la línea de investigación financiada por el Ministerio de Economía y Empresa en el proyecto ENE2016- 80401-R, “Armonización de requisitos de vigilancia y mantenimiento en centrales nucleares con información en el riesgo” y la ayuda para contratos predoctorales para la formación de doctores BES-2014-067602. / Martorell Aigües, P. (2019). Aportaciones al modelado de la indisponibilidad de componentes y la fiabilidad humana para la mejora de la seguridad de las centrales nucleares informada en el riesgo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/118794
89

Affective computing framework for social emotion elicitation and recognition using artificial intelligence

Llanes Jurado, José 02 September 2024 (has links)
Tesis por compendio / [ES] El campo de la computación afectiva es un área que ha surgido con gran impulso y está en constante evolución. Este campo logra integrar psicofisiología, informática, ingeniería biomédica e inteligencia artificial, desarrollando sistemas capaces de inducir y reconocer emociones de manera automática. Su enfoque principal es el estudio del comportamiento humano a través de las emociones, las cuales desempeñan un papel fundamental en acciones como la interacción social, la toma de decisiones o la memoria. Recientemente, los avances tecnológicos han posibilitado el desarrollo de sistemas inteligentes humano-máquina que antes no eran factibles. Elementos como la realidad virtual y los modelos generativos de inteligencia artificial están adquiriendo un papel relevante en el campo de la computación afectiva. La combinación de estas tecnologías puede dar lugar a experimentaciones mucho más realistas que, junto con el reconocimiento automático de respuestas fisiológicas, podrían constituir una metodología robusta para evocar e identificar estados emocionales en entornos de dinámicas sociales. Esta tesis se centra en la evocación y reconocimiento de emociones en realidad virtual mediante la creación del primer humano virtual, basado en un modelo de lenguaje generativo, que permite mantener conversaciones a tiempo real con un humano. Se han medido diversas señales fisiológicas y desarrollado herramientas de procesamiento de señales para monitorizar las respuestas de manera automática. A partir de esto, se ha evaluado y validado no solo la evocación y reconocimiento de emociones mediante aprendizaje automático, sino también el reconocimiento de sujetos con síntomas depresivos. El trabajo desarrollado en esta tesis presenta contribuciones relevantes, tanto para el campo de la computación afectiva, como para otras áreas afines como el procesamiento de señales y las interacciones humano-máquina. Las herramientas desarrolladas junto con modelos novedosos de la inteligencia artificial consiguen realizar una experimentación, en entornos de dinámicas sociales humanas, nunca antes diseñada. Los resultados muestran como este trabajo es capaz de modelizar información tan relevante como emociones y síntomas depresivos de la persona con la que se habla. Campos como la psicología, medicina o educación pueden utilizar muchas de las herramientas desarrolladas en esta tesis con tal de aportar más información en la toma de decisiones o en la interacción social. / [CA] El camp de la computació afectiva és un àmbit que ha sorgit amb gran impuls i està en constant evolució. Aquest camp aconsegueix integrar psicofisiologia, informàtica, enginyeria biomèdica i intel·ligència artificial, desenvolupant sistemes capaços d'induir i reconèixer emocions de manera automàtica. El seu enfocament principal és l'estudi del comportament humà a través de les emocions, les quals juguen un paper fonamental en accions com la interacció social, la presa de decisions o la memòria. Recentment, els avanços tecnològics han possibilitat el desenvolupament de sistemes intel·ligents humà-màquina que abans no eren factibles. Elements com la realitat virtual i els models generatius d'intel·ligència artificial estan adquirint un paper rellevant en el camp de la computació afectiva. La combinació d'aquestes tecnologies pot donar lloc a experimentacions molt més realistes que, juntament amb el reconeixement automàtic de respostes fisiològiques, podrien constituir una metodologia robusta per evocar i identificar estats emocionals en entorns de dinàmiques socials. Aquesta tesi es centra en la evocació i reconeixement d'emocions en realitat virtual mitjançant la creació del primer humà virtual, basat en un model de llenguatge generatiu, que permet mantenir converses en temps real amb un humà. S'han mesurat diverses senyals fisiològiques i desenvolupat eines de processament de senyals per monitoritzar les respostes de manera automàtica. A partir d'això, s'ha avaluat i validat no només la evocació i reconeixement d'emocions mitjançant aprenentatge automàtic, sinó també el reconeixement de subjectes amb símptomes depressius. El treball desenvolupat en aquesta tesi presenta contribucions rellevants, tant per al camp de la computació afectiva com per a altres àrees afins com el processament de senyals i les interaccions humà-màquina. Les eines desenvolupades juntament amb models innovadors d'intel·ligència artificial aconsegueixen realitzar una experimentació en entorns de dinàmiques socials humanes que mai abans s'havia dissenyat. Els resultats mostren com aquest treball és capaç de modelitzar informació tan rellevant com emocions i símptomes depressius de la persona amb la qual es parla. Àrees com la psicologia, la medicina o l'educació poden utilitzar moltes de les eines desenvolupades en aquesta tesi per a proporcionar més informació en la presa de decisions o en la interacció social. / [EN] The field of affective computing is an area that has emerged with great momentum and is constantly evolving. This field integrates psychophysiology, computer science, biomedical engineering, and artificial intelligence, developing systems capable of inducing and recognizing emotions automatically. Its main focus is the study of human behavior through emotions, which play a fundamental role in actions such as social interaction, decision-making, or memory. Recently, technological advances have made possible the development of human-machine intelligent systems that were previously unattainable. Elements such as virtual reality and generative models of artificial intelligence are becoming increasingly relevant in the field of affective computing. The combination of these technologies could lead to much more realistic experiments that, along with automatic recognition of physiological responses, could constitute a robust methodology for evoking and identifying emotional states in social dynamic environments. This thesis focuses on the elicitation and recognition of emotions in virtual reality through the creation of the first virtual human, based on a generative language model, capable of engaging real-time conversations with a human. Various physiological signals have been measured, and signal processing tools have been developed to monitor responses automatically. Based on this, the elicitation and recognition of emotions through machine learning have been evaluated and validated, as well as the recognition of subjects with depressive symptoms. The work developed in this thesis presents relevant contributions, not only to the field of affective computing but also, to related areas such as signal processing and human-machine interactions. The tools developed, along with innovative artificial intelligence models, enable experimentation in human social dynamics environments that have never been designed before. The results demonstrate how this work is capable of modeling such relevant information as emotions and depressive symptoms of the person being interacted with. Fields such as psychology, medicine, or education can utilize many of the tools developed in this thesis to provide more information in decision-making or social interaction processes. / Llanes Jurado, J. (2024). Affective computing framework for social emotion elicitation and recognition using artificial intelligence [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/207112 / Compendio
90

Experimentación y modelación de mezcla de vapor y gases no-condensables

Córdova Chávez, Yaisel 02 September 2024 (has links)
[ES] La descarga de vapor en forma de chorro en piscinas con agua subenfriada es una forma muy eficiente de condensar vapor y es muy utilizada en diversas aplicaciones industriales, como la industria farmacéutica, metalúrgica, química, sistemas de propulsión sumergida y nuclear. Siendo especialmente esencial en los sistemas de seguridad de las centrales nucleares, concretamente en la piscina de supresión de presión de los Reactores de Agua en Ebullición (BWR, Boiling Water Reactor) y en el tanque de almacenamiento de agua de reabastecimiento en la contención de los reactores avanzados de agua a presión. La eficiencia de esta técnica, denominada Condensación por Contacto Directo (DCC, Direct Contact Condensation), radica en la rápida condensación del vapor proporcionando una alta capacidad de transferencia de calor e intercambio de masa. En las últimas décadas, se han llevado a cabo muchos experimentos sobre los chorros sumergidos de gases no condensables y vapor puro en piscinas, que han proporcionado mucha información de interés, aunque continúan los esfuerzos para adquirir información adicional. Para estudiar en detalle el comportamiento de las descargas de chorros turbulentos se han llevado a cabo una serie de experimentos en una instalación que ha sido diseñada para representar diversos entornos de interés crítico para la seguridad en centrales nucleares. Su singularidad radica en la capacidad de poder reproducir fenomenologías similares a situaciones específicas que podrían surgir en una central nuclear, desde sistemas de despresurización hasta roturas con pérdida de refrigerante. La instalación posibilita el estudio con vapor, aire o una mezcla de ambos utilizando geometrías simples (boquilla) o complejas (sparger) en una piscina con agua en reposo. Se ha utilizado una cámara de alta velocidad con Dispositivo de Carga Acoplada (CCD, Charged-Coupled Device) para capturar imágenes de la descarga del chorro en la piscina y así determinar la interfase entre el gas y el líquido, utilizando técnicas de visualización directa. Para llevar a cabo el procesamiento de dichas imágenes, se han aplicado una serie de procedimientos de procesado, filtrado y post-procesado utilizando una subrutina implementada en MATLAB. Tras la adquisición de las imágenes, se ha caracterizado el comportamiento del chorro de vapor y aire, el efecto de la fracción volumétrica de aire sobre la mezcla y el efecto de la variación del tamaño de la boquilla. Además, se ha medido la longitud del momento del chorro y se ha comprobado su estrecha relación con el diámetro de la boquilla, la velocidad del chorro y el porcentaje de la mezcla. Por otro lado, se ha caracterizado el comportamiento del chorro horizontal en la zona de transición. La transición indica el cambio de un chorro dominado exclusivamente por la fuerza de momento a un régimen en el que las fuerzas de flotación prevalecen. Esta prueba se ha realizado utilizando cinco boquillas intercambiables y para cada caudal de vapor se ha determinado el porcentaje de aire en el que ocurre la transición. Otro de los principales objetivos de esta tesis es la modelación utilizando herramientas de códigos de Dinámica de Fluidos Computacional (CFD), específicamente descargas de chorros de aire en agua subenfriada. Para esto se ha empleado el software ANSYS CFX. El comportamiento del flujo multifásico se ha simulado utilizando el modelo euleriano-euleriano no homogéneo; debido a que es más conveniente para estudiar fluidos interpenetrados. Los resultados CFD se han validado con datos experimentales y resultados teóricos. Las cifras de mérito de la longitud de penetración adimensional y la longitud de flotabilidad adimensional muestran una buena concordancia con las mediciones experimentales. Las correlaciones para estas variables se obtuvieron en función de números adimensionales para dar generalidad utilizando sólo condiciones iniciales de contorno. / [CA] La descàrrega de vapor en forma de xorrat en piscines amb aigua subrefredada és una forma molt eficient de condensar vapor i s'utilitza àmpliament en diverses aplicacions industrials, com la indústria farmacèutica, metal·lúrgica, química, sistemes de propulsió submergida i nuclear. És especialment essencial en els sistemes de seguretat de les centrals nuclears, concretament en la piscina de supressió de pressió dels Reactors d'Aigua en Bulliment (BWR) i en el dipòsit d'aigua de reaprovisionament a la contenció dels reactors avançats d'aigua a pressió. L'eficiència d'aquesta tècnica, anomenada Condensació per Contacte Directe (DCC), rau en la ràpida condensació del vapor proporcionant una alta capacitat de transferència de calor i intercanvi de massa. En les últimes dècades, s'han realitzat molts experiments sobre els raigs submergits de gasos no condensables i vapor pur en piscines, que han proporcionat molta informació d'interès, tot i que continuen els esforços per adquirir informació addicional. Per estudiar amb detall el comportament de les descàrregues de raigs turbulents s'han dut a terme una sèrie d'experiments en una instal·lació que ha estat dissenyada per representar diversos entorns d'interès crític per a la seguretat en centrals nuclears. La seua singularitat rau en la capacitat de poder reproduir fenomenologies semblants a situacions específiques que podrien sorgir en una central nuclear, des de sistemes de despressurització fins a ruptures amb pèrdua de refrigerant. La instal·lació possibilita l'estudi amb vapor, aire o una barreja de tots dos utilitzant geometries simples (busseta) o complexes (sparger) en una piscina amb aigua en repòs. A més, és possible combinar aquestes situacions amb diferents condicions de cabal, pressió o temperatura. S'ha utilitzat una càmera de alta velocitat (CCD) per capturar imatges de la descàrrega del raig a la piscina i així determinar la interfase entre el gas i el líquid, emprant tècniques de visualització directa. Per dur a terme el processament d'aquestes imatges, s'han aplicat una sèrie de procediments complexes de processat, filtrat i post-processat mitjançant una subrutina implementada en MATLAB. Després de l'adquisició de les imatges, s'ha caracteritzat el comportament del raig de vapor i aire, l'efecte de la fracció volumètrica d'aire sobre la barreja i l'efecte de la variació de la grandària de la busseta. A més, s'ha mesurat la longitud del moment del raig i s'ha comprovat la seua estreta relació amb el diàmetre de la busseta, la velocitat del raig i el percentatge de la barreja. D'altra banda, s'ha caracteritzat el comportament del raig horitzontal en la zona de transició. La transició indica el canvi d'un raig dominat exclusivament per la força de moment a un règim en què les forces de flotació prevalen. Aquesta prova s'ha realitzat utilitzant cinc bussetes intercanviables i per a cada cabal de vapor s'ha determinat el percentatge d'aire en què ocorre la transició. Un altre dels principals objectius d'aquesta tesi és la modelització utilitzant eines de codis de Dinàmica de Fluids Computacionals (CFD), específicament descàrregues de xorrades d'aire en aigua subrefredada. Per a això s'ha utilitzat el software ANSYS CFX. El comportament del flux multifàsic s'ha simulat utilitzant el model eulerià-eulerià no homogeni, ja que és més convenient per estudiar fluids interpenetrats. Els resultats CFD s'han validat amb dades experimentals i resultats teòrics. Les figures de mèrit de la longitud de penetració adimensional i la longitud de flotabilitat adimensional mostren una bona concordança amb les mesures experimentals. Les correlacions per a aquestes variables s'han obtingut en funció de nombres adimensionals per donar generalitat utilitzant només condicions inicials de contorn. El model numèric CFD desenvolupat té la capacitat de simular el comportament de gasos no condensables descarregats en aigua. / [EN] The discharge of steam in the form of a jet in pools with subcooled water is a highly efficient way to condense steam and is widely used in various industrial applications, such as the pharmaceutical, metallurgical, chemical, submerged propulsion, and nuclear industries. It is particularly essential in the safety systems of nuclear power plants, specifically in the pressure suppression pool of Boiling Water Reactors (BWR) and in the water replenishment tank in the containment of advanced pressurized water reactors. The efficiency of this technique, known as Direct Contact Condensation (DCC), lies in the rapid condensation of steam, providing a high heat transfer and mass exchange capacity. In recent decades, numerous experiments have been conducted on submerged jets of non-condensable gases and pure steam in pools, yielding valuable information, although efforts continue to gather additional data. To study in detail the behavior of turbulent jet discharges, a series of experiments have been carried out in a facility designed to simulate various critical environments for safety in nuclear power plants. Its uniqueness lies in the ability to reproduce phenomenologies like specific situations that could arise in a nuclear power plant, from depressurization systems to ruptures with coolant loss. The facility enables the study with steam, air, or a mixture of both using simple geometries (nozzle) or complex geometries (sparger) in a pool with quiescent water. Additionally, it is possible to combine these situations with different flow, pressure, or temperature conditions. A high-speed camera with Charge-Couple Device (CCD) has been used to capture images of the jet discharge in the pool, aiming to determine the gas-liquid interface through direct visualization techniques. Following the image acquisition, a series of complex processing, filtering, and post-processing procedures have been applied using a subroutine implemented in MATLAB. After obtaining the images, the behavior of the steam and air jet, the effect of the volumetric fraction of air on the mixture, and the impact of varying the nozzle size have been characterized. Additionally, the length of the jet momentum has been measured, establishing its close relationship with the nozzle diameter, jet velocity, and mixture percentage. Furthermore, the behavior of the horizontal jet in the transition zone has been characterized. The transition denotes the shift from a jet dominated exclusively by momentum force to a regime where buoyancy forces prevail. This test has been conducted using five interchangeable nozzles, and for each steam flow rate, the percentage of air at which the transition occurs has been determined. Another main objective of this thesis is modeling using Computational Fluid Dynamics (CFD) tools, specifically jet discharges of air into subcooled water. The ANSYS CFX software has been employed for this purpose. Multiphase flow behavior has been simulated using the non-homogeneous Eulerian-Eulerian model, as it is more convenient for studying interpenetrated fluids. CFD results have been validated with experimental data and theoretical results. The dimensionless penetration length and dimensionless buoyancy length merit figures show good agreement with experimental measurements. Correlations for these variables were obtained as a function of dimensionless numbers to provide generality using only initial boundary conditions. The developed CFD numerical model has the capability to simulate the behavior of non-condensable gases discharged into water. / Córdova Chávez, Y. (2024). Experimentación y modelación de mezcla de vapor y gases no-condensables [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/207266

Page generated in 0.1064 seconds