• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 14
  • 1
  • 1
  • Tagged with
  • 64
  • 56
  • 19
  • 19
  • 18
  • 18
  • 16
  • 13
  • 12
  • 12
  • 11
  • 9
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Diseño de un sistema de lengua electrónica basado en técnicas electroquímicas voltamétricas y su aplicación en el ámbito agroalimentario

Alcañiz Fillol, Miguel 26 July 2011 (has links)
En los últimos años, las lenguas electrónicas se han convertido en una excelente alternativa a los métodos tradicionales de análisis para el control de los procesos y los productos en el ámbito agroalimentario. Se trata de sistemas que, mediante técnicas electroquímicas como la potenciometría o la voltametría combinadas con herramientas de análisis multivariante, son capaces de clasificar muestras y cuantificar sus parámetros fisicoquímicos. Su principal ventaja con respecto a los métodos tradicionales es que permiten la realización de medidas rápidas y económicas, evitando el preprocesado de la muestra y la necesidad de contar con personal cualificado para llevar a cabo los análisis. Su funcionamiento se basa en la utilización de sensores de sensibilidad cruzada, lo que permite medir muestras en las que existan interferencias entre los distintos compuestos que las integran. En la presente tesis se ha desarrollado un sistema de lengua electrónica basado en las técnicas de voltametría y espectroscopía de impedancias. El sistema diseñado consta de una aplicación de PC y de un Equipo Electrónico de Medida que es capaz de llevar a cabo ensayos de voltametría cíclica y voltametría de pulsos sobre un total de 10 electrodos de trabajo. También se pueden realizar medidas de espectroscopía de impedancias en un rango de frecuencias de 1Hz a 200kHz. El Equipo Electrónico de Medida dispone de un potenciostato, lo que posibilita la implementación de ensayos en configuración de tres electrodos tanto de voltametría como de espectroscopía de impedancias. El software desarrollado permite no solo la realización de los ensayos sino también el almacenamiento de los datos correspondientes a las medidas obtenidas, su preprocesado y la generación de los ficheros necesarios para llevar a cabo el posterior análisis multivariante. El sistema ha sido caracterizado eléctricamente obteniéndose unos niveles de precisión y exactitud excelentes para la técnica de voltametría y niveles aceptables / Alcañiz Fillol, M. (2011). Diseño de un sistema de lengua electrónica basado en técnicas electroquímicas voltamétricas y su aplicación en el ámbito agroalimentario [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11303
22

Sensores electroquímicos aplicados al estudio de la corrosión en estructuras de hormigón armado

Gandía Romero, José Manuel 31 March 2015 (has links)
La corrosión de las armaduras es una de las principales causas que afectan a la durabilidad de las estructuras y a su vida útil. La carbonatación del hormigón y la acción de iones agresivos, principalmente los cloruros, son los procesos que mayor riesgo suponen para la corrosión de las armaduras. El control y monitorización mediante técnicas no destructivas es fundamental, de esta forma, se puede obtener información a tiempo real de aquellos factores que pueden favorecer los procesos de corrosión.   En el presente trabajo se exponen los resultados de varios estudios. En primer lugar se detalla el proceso de fabricación, caracterización y evaluación de diferentes tipos de sensores electroquímicos para el control del acceso de iones cloruro y la medida del pH del hormigón. Los sensores se han fabricado en tecnología de microelectrónica híbrida, concretamente en tecnología thick film. A continuación se propone un nuevo modelo de medida de la resistividad en hormigones que permita  valorar de forma indirecta la probabilidad de corrosión de las armaduras. A partir de los resultados obtenidos en un trabajo previo donde se había estudiado la conductividad en una celda electrolítica se desarrolla una metodología alternativa al método directo y al de cuatro puntas que permite monitorizar la evolución de la resistividad de los hormigones endurecidos. Finalmente, se aplican metodologías de análisis multivariante (Principal Component Analysis) en combinación con técnicas electroquímicas dinámicas tradicionales para obtener información del agente que causa la corrosión, por lo que puede ser una herramienta muy útil para el conocimiento fundamental del material metálico objeto de estudio. / Gandía Romero, JM. (2014). Sensores electroquímicos aplicados al estudio de la corrosión en estructuras de hormigón armado [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48516 / Premios Extraordinarios de tesis doctorales
23

Estudio de la evolución de estados prefebriles, para su modelización mediante técnicas de análisis multivariantes

Jordán Núñez, Jorge 04 June 2015 (has links)
[EN] The research is a process that, by means of the application of the scientific method, procuration obtain information relieving to understand, verify, correct or apply the knowledge. Besides, the research do not belong to an only science, but that can apply in a big numeral of scientific fields. In occasions the union of efforts between branches of the science is necessary to resolve some questions, how is the case of this thesis. The collaboration between the medicine and the statistical generates a synergistic effect that allow the obtaining of trustworthy results. With reason of a continuous extension of knowledges in medicine, for can elevate the life average age and the quality of the same, the doctors researchers pose the following hypothesis: the blood cultures of a person, contain a higger quantity of bacteria in a short period of previous time to a feverish beak. How it seems evident, to corroborate this hypothesis would owe compare a series of samples of blood cultures preys in the period pre-febrile and other preys immediately after the feverish beak. The problem that have the doctors researchers is that they do not know when take the samples of blood cultures of the period pre-febrile, since have tools to determine when a person had fever with a sufficient time, and sinus that have the tool to determine when happen a feverish beak in real time (thermometer). In this thesis resolves the problem of when take the sample of blood cultures in the period pre-febrile, by means of mathematical models that feature of measures temperature of the own patient, and a series of variables that are measures of complexity calculated from the same measures of temperature of the patient. The obtaining of the data was done of way non invasive in patients of plant of the hospital of Móstoles, using a system of measure of temperature and storage of data called Thercom c . Once with the available data did a selection of technical of multivariate analysis that could be useful as the type of variables with which works. They calculate different models that can anticipate to a feverish beak, that later validate with new samples of patients. Finally they compare the models on the base of his effectiveness in the prediction of states pre-febrile. The resultant models, are the tool that needed the doctors researchers to take the samples of the period pre-febrile and can continue with his research. / [ES] La investigación es un proceso que, mediante la aplicación del método científico, procura obtener información relevante para entender, verificar, corregir o aplicar el conocimiento. Además, la investigación no pertenece a una sola ciencia, sino que puede aplicarse en un gran número de campos científicos . En ocasiones la unión de esfuerzos entre ramas de la ciencia es necesaria para resolver algunas incógnitas, como es el caso de esta tesis. La colaboración entre la medicina y la estadística genera un efecto sinérgico que permite la obtención de resultados fidedignos. Con motivo de una continua ampliación de conocimientos en medicina, para poder elevar la edad media de vida y la calidad de la misma, los médicos investigadores se plantean la siguiente hipótesis: los hemocultivos de una persona, contienen una mayor cantidad de bacterias en un corto periodo de tiempo anterior a un pico febril. Como parece evidente, para corroborar esta hipótesis se deberían de comparar una serie de muestras de hemocultivos tomadas en el periodo prefebril y otras tomadas inmediatamente tras el pico febril. El problema que tienen los médicos investigadores es que no saben cuando tomar las muestras de hemocultivos del periodo prefebril, ya que no tienen herramientas para determinar cuando una persona va tener fiebre con una antelación suficiente, y si que tienen la herramienta para determinar cuando sucede un pico febril en tiempo real (termómetro). En esta tesis se resuelve el problema de cuando tomar la muestra de hemocultivos en el periodo prefebril, mediante modelos matemáticos que constan de medidas temperatura del propio paciente, y una serie de variables que son medidas de complejidad calculadas a partir de las mismas medidas de temperatura del paciente. La obtención de los datos fue hecha de manera no invasiva en pacientes de planta del hospital de Móstoles, utilizando un sistema de medida de temperatura y almacenamiento de datos llamado Thercom c . Una vez con los datos disponibles se hizo una selección de técnicas de análisis multivariantes que pudieran ser útiles según el tipo de variables con las que se trabaja. Se calculan distintos modelos que puedan anticiparse a un pico febril, que posteriormente se validan con nuevas muestras de pacientes. Finalmente se comparan los modelos en base a su efectividad en la predicción de estados prefebriles. Los modelos resultantes, son la herramienta que necesitaban los médicos investigadores para tomar las muestras del periodo prefebril y poder continuar con su investigación. / [CA] La recerca és un procés que, mitjançant l'aplicació del mètode científic, procura obtenir informació rellevant per a entendre, verificar, corregir o aplicar el coneixement. A més, la recerca no pertany a una sola ciència, sinó que pot aplicar-se en un gran nombre de camps científics. En ocasions la unió d'esforços entre branques de la ciència és necessària per a resoldre algunes incògnites, com és el cas d'aquesta tesi. La col laboració entre la medicina i l'estadística genera un efecte sinèrgic que permet l'obtenció de resultats fidedignes. Amb motiu d'una contínua ampliació de coneixements en medicina, per a poder elevar l'edat mitjana de vida i la qualitat de la mateixa, els metges investigadors es plantegen la següent hipòtesi: els hemocultius d'una persona, contenen una major quantitat de bacteris en un curt període de temps anterior a un bec febril. Com sembla evident, per a corroborar aquesta hipòtesi es deurien comparar una sèrie de mostres d'hemocultius preses en el període prefebril i altres preses immediatament després del bec febril. El problema que tenen els metges investigadors és que no saben quan prendre les mostres d'hemocultius del període prefebril, ja que no tenen eines per a determinar quan una persona va tenir febre amb una antelació suficient, i si que tenen l'eina per a determinar quan succeeix un bec febril en temps real (termòmetre). En aquesta tesi es resol el problema de quan prendre la mostra d'hemocultius en el període prefebril, mitjançant models matemàtics que consten de mesures temperatura del propi pacient, i una sèrie de variables que són mesures de complexitat calculades a partir de les mateixes mesures de temperatura del pacient. L'obtenció de les dades va ser feta de manera no invasiva en pacients de planta de l'hospital de Móstoles, utilitzant un sistema de mesura de temperatura i emmagatzematge de dades anomenat Thercom c . Una vegada amb les dades disponibles es va fer una selecció de tècniques d'anàlisis multivariants que pogueren ser útils segons el tipus de variables amb les quals es treballa. Es calculen diferents models que puguen anticipar-se a un bec febril, que posteriorment es validen amb noves mostres de pacients. Finalment es comparen els models sobre la base de la seua efectivitat en la predicció d'estats prefebrils. Els models resultants, són l'eina que necessitaven els metges investigadors per a prendre les mostres del període prefebril i poder continuar amb la seua recerca. / Jordán Núñez, J. (2015). Estudio de la evolución de estados prefebriles, para su modelización mediante técnicas de análisis multivariantes [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/51222
24

Diseño y mejora de gráficos de control multivariantes para atributos. Un enfoque basado en teoría difusa

Pastuizaca Fernández, María Nela 02 June 2016 (has links)
[EN] The Statistical Process Control (SPC) is a method used to control the quality characteristics of a product during the production process, determine whether the manufacturing process is or not stable and improve its capacity through the reduction of variability. One of the main tools used in the SPC is the control chart. Often the quality of a product is measured through various quality characteristics generally correlated. Multivariate Control charts are a response to the need for quality control in such situations. If the quality characteristics are qualitative, sometimes it happens that the product quality is defined by linguistic variables and product units are also classified by linguistic forms into several categories, depending on the degree of fulfillment of expectations, creating a situation of fuzzy classifications. The control charts proposed in the literature to deal with such situations are mostly based on simulation and using approximation techniques which hinder the practical application thereof. This thesis addresses this issue proposing a multivariate control chart for quality characteristics of multi-type attributes correlated based on the T2 control chart of Hotelling, using a fuzzy approach. The results of the proposed control charts before are improved by establishing a more formal way of measuring and evaluating quality in these diffuse situations. A method is also proposed to assess the performance of control chart proposed, by deter mining the average run length (ARL), in both in-control state and the out-of-control state. For this, algorithms which use Monte Carlo simulation are developed and implemented in R. Additionally, the sensitivity of the control chart faced with the choice of the membership functions of linguistic variables is analyzed. / [ES] El Control Estadístico de Procesos (CEP) es un método que se utiliza para controlar las características de calidad de un producto durante el proceso de producción, determinar si los procesos de manufactura son o no estables y mejorar su capacidad a través de la reducción de la variabilidad. Una de las principales herramientas utilizadas en el Control Estadístico de Procesos es el gráfico de control. Con frecuencia, la calidad de un producto se mide a través de varias características de calidad, generalmente correlacionadas. Los gráficos de control multivariantes son una respuesta a la necesidad de controlar la calidad en tales situaciones. Si las características de calidad son de carácter cualitativo, ocurre en ocasiones que la calidad del producto se define mediante variables lingüísticas y las unidades de producto se clasifican también de for ma lingüística en varias categorías, dependiendo del grado de cumplimiento de las expectativas, creando una situación de clasificaciones difusas. Los gráficos propuestos en la literatura para tratar con tales situaciones están, en su mayoría, basados en simulación y el uso de técnicas de aproximación que dificultan la aplicación práctica de los mismos. Esta tesis trata esta cuestión proponiendo un Gráfico de Control multivariante para características de calidad de tipo multi-atributos correlacionados basado en el gráfico T2 de Hotelling, utilizando un enfoque difuso. Se mejora los resultados de los gráficos de control propuestos anterior mente estableciendo una manera más formal de medición y evaluación de la calidad en estas situaciones difusas. Se propone además un procedimiento para evaluar el rendimiento del gráfico de control propuesto mediante la determinación de la longitud de racha promedio (ARL), tanto para un estado bajo-control como para el estado fuera-de-control. Para ello se desarrollaron algoritmos que utilizan simulación de Monte Carlo y han sido implementados en R. Adicionalmente, se analiza la sensibilidad del gráfico de control frente a la elección de las funciones de pertenencia de las variables lingüísticas. / [CA] El Control Estadístic de Processos (CEP) és un mètode que s'utilitza per controlar les característiques de qualitat d'un producte durant el procés de producció, deter minar si els processos de manufactura són o no estables i millorar la seva capacitat a través de la reducció de la variabilitat. Una de les principals eines utilitzades en el Control Estadístic de Processos és el gràfic de control. Sovint, la qualitat d'un producte es mesura a través de diverses característiques de qualitat, generalment correlacionades. Els gràfics de control multivariants són una resposta a la necessitat de controlar la qualitat en aquestes situacions. Si les característiques de qualitat són de caràcter qualitatiu, de vegades passa que la qualitat del producte es defineix mitjançant variables lingüístiques i les unitats de producte es classifiquen també de for ma lingüística en diverses categories, depenent del grau de compliment de les expectatives, creant una situació de classificacions difuses. Els gràfics proposats en la literatura per abordar aquestes situacions són, majoritàriament, basats en simulació i l'ús de tècniques d'aproximació que en dificulten l'aplicació pràctica. Aquesta tesi tracta de resoldre aquesta qüestió amb la proposta d'un Gràfic de Control multivariant per característiques de qualitat de tipus multi-atributs correlacionats basat en el gràfic T2 de Hotelling, mijançant un enfocament difús. S'hi milloren els resultats de les gràfics de control proposats anterior ment per mitjà d'un mètode més for mal de mesurament i avaluació de la qualitat en aquestes situacions difuses. S'hi proposa a més un procediment per avaluar el rendiment del gràfic de control proposat mitjançant la deter minació de la longitud de ràfega mitjana (ARL), tant per a un estat en-control com per a l'estat fora-de-control. Amb aquesta finalitat es van desenvolupar algoritmes que utilitzen simulació de Monte Carlo i han estat implementats en R. Addicionalment, s'hi analitza la sensibilitat del gràfic de control davant l'elecció de les funcions de pertinença de les variables lingüístiques. / Pastuizaca Fernández, MN. (2016). Diseño y mejora de gráficos de control multivariantes para atributos. Un enfoque basado en teoría difusa [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/65073
25

Monitorización y Predicción de Procesos Multivariantes y Autocorrelacionados. Aplicación a la producción de Tilapia en Mozambique

Mulema, Sérgio Afonso 26 November 2018 (has links)
Resumen La presente tesis aborda los métodos estadísticos de monitorización y predicción de procesos multivariantes y autocorrelacionados en la industria. La investigación se orienta, por un lado, al estudio de los métodos de monitorización que culmina con el desarrollo de un gráfico de control de procesos; y por otro lado, al análisis de los métodos de predicción, donde se elabora el modelo dinámico sobre estructuras latentes (MDEL). En los dos casos, los modelos de series temporales constituyen una herramienta fundamental para modelar la estructura de autocorrelación en los datos. El estudio del modelo de monitorización sigue un orden lógico de complejidad de los métodos de control de procesos usados en la industria. Se empieza por analizar los gráficos de control univariante; los gráficos multivariantes, y sus limitaciones en el control de procesos autocorrelacionados, con lo cual se introducen los gráficos multivariantes para procesos autocorrelacionados, donde se desarrolla el gráfico de control multivariate autocorrelated and adapted EWMA chart (MAAEWMA). El desempeño del gráfico MAAEWMA fue comparado con el gráfico MEWMA ajustado a ruidos blancos. Los resultados mostraron que el gráfico MAAEWMA es más rápido en detectar cambios en la media del proceso, y es más eficiente para procesos con media y alta autocorrelación. Por otro lado, el método predictivo fue elaborado para modelar los procesos multivariantes y autocorrelacionados. Para ello, se estudiaron los métodos sobre estructuras latentes PCA y PLS, y sus respectivas versiones dinámicas: dynamic PCA (DPCA) y dynamic PLS (DPLS). El desarrollo del modelo dinámico sobre estructuras latentes (MDEL) consistió en la combinación del modelo DPCA y de la función de transferencia (FT). El modelo DPCA fue aplicado a los datos de entrada y de salida del proceso de manera separada para determinar las variables latentes que recogen la máxima variabilidad dinámica en los datos. La estructura dinámica en las variables latentes resultantes fue modelada mediante una función de transferencia para analizar la influencia de los datos de entrada sobre los datos de salida. Los modelos MDEL y DPLS fueron ajustados en condiciones idénticas a un conjunto de datos simulados. La calidad de ajuste de los modelos fue evaluada mediante la variabilidad explicada de las variables latentes (R2), y la capacidad predictiva fue testada mediante validación cruzada, donde fue calculado el mean absulute error (MAE) de los dos modelos. El MDEL presentó mejores resultados comparado al DPLS, con mayor variabilidad explicada porlas variables latentes, y con una capacidad predictiva robusta y estable. Los modelos propuestos fueron aplicados para monitorizar y predecir el proceso de cría de tilapia en Mozambique. El gráfico MAAEWMA señló cambios significativos del ambiente acuático en el proceso, y con el modelo MDEL se analizó el impacto de dichos cambios en el crecimiento de la tilapia. / Resum La present tesi aborda els mètodes estadístics de monitoratge i predicció de processos multivariants i autocorrelacionados en la indústria. La investigació s'orienta, d'una banda, a l'estudi dels mètodes de monitorització que culmina amb el desenvolupament d'un gràfic de control de processos; i d'altra banda, a l'anàlisi dels mètodes de predicció, on s'elabora el model dinàmic sobre estructures latents (MDEL). En els dos casos, els models de s`eries temporals constitueixen una eina fonamental per a modelar l'estructura d'autocorrelació en les dades. L'estudi del model de monitoratge segueix un ordre lògic de complexitat dels mètodes de control de processos usats en la indústria. Es comença per analitzar els gràfics de control univariant;els gràfics multivariants, i les seves limitacions en el control de processos autocorrelacionados, amb la qual cosa s'introdueixen els gràfics multivariants per a processos autocorrelacionados, on es desenvolupa el gràfic de control multivariate autocorrelated and adapted EWMA chart (MAAEWMA). L'acompliment del gràfic MAAEWMA va ser comparat amb el gràfic MEWMA ajustat a sorolls blancs. Els resultats van mostrar que el gràfic MAAEMA és més ràpid en detectar canvis en la mitjana del procés, i és més eficient per a processos amb mitja i alta autocorrelació. D'altra banda, el mètode predictiu va ser elaborat per modelar els processos multivariants i autocorrelacionados. Per a això, es van estudiar els m`etodes sobre estructures latents PCA i PLS, i les seves respectives versions dinàmiques: dynamic PCA (DPCA) i dynamic PLS (DPLS). El desenvolupament del model dinàmic sobre estructures latents (MDEL) va consistir en la combinació del model DPCA i de la funció de transferència (FT). El model DPCA va ser aplicat a les dades d'entrada i de sortida del procés de manera separada per a determinar les variables latents que recullen la màxima variabilitat dinàmica en les dades. L'estructura din`amica en les variables latents resultants va ser modelada mitjançant una funci¿o de transferència per analitzar la influència de les dades d'entrada sobre les dades de sortida. Els models mdel i DPLS van ser ajustats en condicions idèntiques a un conjunt de dades simulades. La qualitat d'ajust dels models va ser avaluada mitjançant la variabilitat explicada de les variables latents (R2), i la capacitat predictiva va ser testada mitjançant validació creuada, on va ser calculat el pixen absulute error (MAE) de els dos models. L'mdel presentar millors resultats comparat al DPLS, amb major variabilitat explicada per les variables latents, i amb una capacitat predictiva robusta i estable. Els models proposats van ser aplicats per monitoritzar i predir el proc¿es de cria de tilapia a Moçambic. El gràfic MAAEWMA va assenyalar canvis significatius de l'ambient aquàtic en el procés, i amb el model mdel es va analitzar l'impacte d'aquests canvis en el creixement de la tilàpia. / Abstract This thesis is based on statistical methods to monitor and predict the multivariate and autocorrelated industrial processes. The research is oriented on the monitoring methods that culminate with the development of a process control chart and analysis of the prediction methods, where the dynamic model on latent structures (MDEL) was developed. In both cases, the time series models were used to model the autocorrelation structure in the data. The analysis of the monitoring models follows a logical order of complexity of the process control methods used in the industry. The univariate and multivariate charts were analysed, and their limitations in the control of autocorrelated processes were considered. Therefore, the multivariate charts for autocorrelated processes were introduced and the multivariate, autocorrelated and adapted EWMA chart (MAAEWMA) was developed. The performance of the MAAEWMA chart was compared with the MEWMA chart adjusted to white noise. The results showed that the MAAEWMA chart was faster in detecting changes in the process mean and was more efficient for processes with medium and high autocorrelation. On the other hand, the predictive method was developed to model the multivariate and autocorrelated processes. To this end, the methods on latent structures PCA and PLS and their respective dynamic versions: dynamic PCA (DPCA) and dynamic PLS (DPLS) were studied. The dynamic model on latent structures (MDEL) consists of the combination of DPCA model and the transfer function (FT). The DPCA model was applied separately to the input and output data of the process. This strategy was applied to guarantee the maximum dynamic variability in the latent varia- bles. The dynamic structure in the latent variables was modelled by a transfer function to analyse the influence of the input on the output data. The MDEL and DPLS models were adjusted in identical conditions to a set of simulated data. The goodness of fit was evaluated by the explained variability of the latent variables (R2) and the predictive capacity of the models was tested through cross validation, where the mean absolute error (MAE) was calculated. The MDEL presented better results than DPLS model, with greater variability explained by the latent variables and a robust and stable predictive capacity. The proposed models were applied to monitor and predict the tilapia crop process in Mozambique. The MAAEWMA chart indicated significant changes in the aquatic environmentand and with the MDEL was analysed the impact of these changes on the growth of tilapia. / Mulema, SA. (2018). Monitorización y Predicción de Procesos Multivariantes y Autocorrelacionados. Aplicación a la producción de Tilapia en Mozambique [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/113070
26

El análisis de correspondencias conjunto y múltiple ajustado

Saavedra López, Ricardo Elías 15 August 2012 (has links)
Esta tesis presenta una revisión de los fundamentos teóricos de dos de las más recientes extensiones de la técnica estadística conocida como análisis de correspondencia (AC): el análisis de correspondencia conjunto (ACC) y el análisis de correspondencia múltiple ajustado (ACMA); y muestra una aplicación práctica de éstas a una encuesta de egresados de la Pontificia Universidad Católica del Perú. El análisis de correspondencia simple (ACS) es el primer alcance del análisis de correspondencias y se presenta cuando cada categoría de una variable se describe en función de la dependencia existente de los valores de otra única variable. Su extensión a más de 2 variables es conocida como el análisis de correspondencia múltiple (ACM). Si bien se puede encontrar literatura sobre el ACS y el ACM, es importante destacar que el ACC y el ACMA han sido poco difundidos, encontrándose escasa literatura sobre el tema, más aún, en nuestro idioma. Por lo tanto, se hace necesaria una revisión de las dos primeras a modo de contexto y una presentación metodológica y detallada de las dos últimas. Con la aplicación práctica se pretende obtener una representación de las facultades de los egresados de la PUCP en función del ingreso en su primer empleo relacionado con la formación recibida en la universidad y la percepción del grado de desarrollo de la competencia de comunicación recibida en la universidad. Esta aplicación consistiría en aplicar los 4 métodos descritos, comparándolos mediante nuevas técnicas que permiten reproducir las tablas de contingencia originales a partir de las representaciones obtenidas por los métodos indicados.
27

Avances en la metodología de recuperación y georreferenciación continua gaussiana de una cartografía antigua: Aplicación al plano parcelario municipal de Valencia de 1929

Villar Cano, Miriam 05 April 2016 (has links)
[EN] The development of the cartographic recovery procedure presented in this thesis was started by the need of the Valencia Council to make use of the urban map of 1929 as a tool for territory conflict resolution. Its patrimonial and historical values make the digitization with colorimetric profiling an essential effort for conservation and reproduction purposes as well as for its integration in the municipal geographical information system. The first chapter briefly describes the aims of the research, the state of the art together with previous research on the subject, and also establishes an introduction to urban cartography. Chapter two focuses on the original documents related to the urban map survey with the purpose of performing an in-depth analysis of every stage of the computation procedure. With this goal in mind, calculations have been rerun both with modern computing tools as well as with the original calculation techniques with the aid of the bibliographic references of the time. The third chapter intends estimating the technical quality of the surveying triangulation network observed in 1929 and checking the expected accuracy considering the map scale. With this objective, a Gaussian network adjustment using the so-called coordinate increment method is applied, and a complete error analysis is obtained. From this historical-technical research, some conclusions are drawn about the quality of the present cartographic source and the beginning of the second phase of research starting in the fourth chapter is justified. The fourth chapter introduces two objectives. The first one is to perform the georeferencing procedure using GNSS measurement techniques of matching points together with a two dimensional 2D affine transformation for representing the map on the ETRS89 reference system and the UTM projection system. The second is to adjust a series of networks, whose vertexes are part of the network surveyed in 1929, according to the Gaussian method of coordinate increment adjustment which provides rigorous interpretation of the results. It also establishes error figures both geometrically and probabilistically by means of multivariate analysis based on the theory of pedal and hyperpedal curves. Chapter five studies the evolution of a micro geodetic network over time, defining and evaluating possible deformations that could occur and affect it. The results are obtained in the form of a deformation vector. The vector elements, quantifies numerically the variation of each one of the net coordinates on a vertex by vertex basis. The establishment of a threshold allows the discrimination of the results obtained by different procedures, studying and assessing the statistical power about the results as a whole or in isolated areas by means of multivariate analysis. Furthermore, it is possible to make a rigorous virtual densification of the net with the same level of accuracy as provided from observation and direct calculation. Application of the study of areas of different importance, allows reaching optimum results with a local transformation that significantly improves those results. Finally, the sixth chapter collects the conclusions and some reflections that are considered in the discussion. The chapter ends with a list of future research lines that could follow this thesis. The research closes with four appendices. The first one collects the theory named as areas of different importance that was applied in the fifth chapter: The second one contains some the details of the geometric method based on circumscribing circles that was used to obtain the best results in the georeferencing of the map, which has the advantage of avoiding stations in vertexes with difficult access. Third one develops the maps acquisition in digital format, and the last one is reserved for the programming and work integration in a GIS environment. / [ES] El desarrollo del procedimiento de recuperación de cartografía antigua, viene propiciado por la necesidad manifiesta del Excmo. Ayto. de Valencia de utilizar el plano parcelario municipal (PPM) de Valencia de 1929 como herramienta de resolución de conflictos territoriales. Su valor patrimonial añadido a su utilidad como documento histórico reflejo de la Valencia de la época, hace imprescindible su digitalización con perfilado colorimétrico que asegure su óptima conservación y reproducción, así como su georreferenciación; posibilitando la inclusión en el Sistema de Información Geográfica (SIG) Municipal como una capa de información histórica al alcance de todos los servicios del Ayuntamiento. El primer capítulo describe brevemente los objetivos de esta tesis, los antecedentes de la investigación en este campo y establece la introducción al PPM de 1929. Después del capítulo introductorio, se analizan los documentos originales de cada una de las fases del levantamiento del plano y se rehacen los cálculos desde un punto de vista actual y contemporáneo. En un tercer capítulo se pretende cifrar la calidad técnica de la red de triangulación primaria observada en 1929 y comprobar la precisión esperada por la escala del levantamiento, para lo que se aplica el método gaussiano determinista en ajuste por incrementos de coordenadas que permite realizar un análisis de errores. De este estudio histórico-técnico se sacan conclusiones acerca de la calidad Plano y se justifica la investigación presentada en el siguiente capítulo. El capítulo cuarto presenta como objetivos, la georreferenciación del Plano mediante técnicas GNSS y una transformación afín 2D para llevar la cartografía al sistema UTM-ETRS89. Así como, el ajuste de una serie de redes cuyos vértices forman parte de la red de 1929 siguiendo el método de incrementos de coordenadas, completándolo con la interpretación de resultados y estableciendo recintos de error cifrados geométrica y probabilísticamente, mediante la aplicación de Análisis Multivariante teniendo en cuenta la teoría de podarias e hiperpodarias. El capítulo quinto nos permite estudiar la evolución de una red microgeodésica en su conjunto y a lo largo del tiempo, definiendo y evaluando las posibles deformaciones que hayan podido afectarla. El resultado se obtiene en forma de vector deformación cuyas componentes cifran la variación de cada una de las coordenadas de la red, vértice a vértice. Se establece un límite razonado de sensibilidad que permite la discriminación del resultado obtenido por diversos procedimientos, estudiando y valorando el poder de afirmación estadístico de los resultados obtenidos, en conjunto o por zonas separadas aplicando Análisis Multivariante. Del mismo modo, es factible realizar la densificación virtual de la red con suficiente rigor y el mismo nivel de precisión, punto a punto, que los de observación y cálculos directos. A través de la aplicación de la teoría de zonas de distinta significación se llega a la conclusión de que el óptimo resultado responderá a una transformación local que mejora notablemente los resultados. Finalmente el capítulo sexto recopila las conclusiones a las que se ha llegado una vez ultimado el trabajo, junto con algunas reflexiones a tener en cuenta para su discusión. En último lugar se mencionan las líneas futuras que puede tomar esta investigación. Cuatro apéndices cierran el trabajo: el primero está dedicado a la exposición teórica de zonas de distinta significación aplicada en el capítulo quinto, el segundo hace referencia a los detalles del método de resolución por arcos capaces utilizado para realizar la densificación de puntos necesaria para obtener los mejores resultados en la georreferenciación del plano, con la ventaja añadida de poder evitar el estacionamiento en vértices de difícil acceso. El tercero trata la adquisición de los planos en formato digital, y un / [CA] El desenvolupament del procediment de recuperació de cartografia antiga, es afavorit per la necessitat manifesta de l'Excel·lentíssim Ajuntament de València d'utilitzar el plànol parcel·lari municipal de València (PPM) de l'any 1929 com a eina de resolució de conflictes territorials. El seu valor patrimonial afegit a la seva utilitat com a document històric reflex de la València de l'època, fa imprescindible la seua digitalització amb perfilat colorimètric per a assegurar la seua óptima conservació i reproducció, així com la seua georreferenciació fa possible la inclusió en el Sistema d'Informació Geogràfica (SIG) municipal com una capa d'informació històrica, que puga estar a l'abast de tots els serveis de l'Ajuntament. El primer capítol descriu breument els objectius del treball, els antecedents de la recerca i s'estableix la introducció del plànol parcel·lari municipal de 1929. En el segon capítol s'analitzen els documents originals associats amb l'alçament del Plànol i es refan els càlculs des d'un punt de vista actual i contemporani. En un tercer capítol de la tesi es pretén xifrar la qualitat tècnica de la xarxa de triangulació primària observada al 1929 i comprovar la precisió esperada segons l'escala de l'alçament, per al qual s'aplica el mètode gaussià determinista, en ajust per increments de coordenades que permeten realitzar una anàlisi d'errors. D'aquest estudi històrico-tècnic es trauen conclusions sobre la qualitat del plànol i es justifica la investigació que ofereix el començament del següent capítol. El capítol quart presenta com a objectius, la georreferenciació del Plànol mitjançant la tècniques GNSS i una transformació afí 2D per a portar la cartografia al sistema UTM-ETRS89. Així com, l'ajust d'una sèrie de xarxes els vèrtexs dels quals formen part de la xarxa de 1929 seguint el mètode gaussià per increments de coordenades, completant-ho amb l' interpretació rigorosa de resultats amb establiment de recintes d'error xifrats geomètricament i probabilísticament, mitjançant l'aplicació d'Anàlisi Multivariant prestant atenció a la teoria de podaries i hiperpodaries. El capítol cinquè ens permet estudiar l'evolució d'una xarxa microgeodèsica en el seu conjunt i al llarg del temps, per a definir i avaluar les possibles deformacions que hagen pogut afectar-la. El resultat s'obté en forma de vector deformació, els components del qual xifren la variació de cadascuna de les coordenades de la xarxa, vèrtex a vèrtex. S'estableix un límit raonat de sensibilitat que permet la discriminació del resultat obtingut per diversos procediments, en estudiar i valorar el poder d'afirmació estadístic dels resultats obtinguts, en conjunt o per zones separades aplicant Anàlisi Multivariant. Així mateix, és factible realitzar la densificació virtual de la xarxa amb suficient rigor i el mateix nivell de precisió, punt a punt, que els d'observació i càlculs directes. A través de l'aplicació de la teoria de zones de diferent significació, arribem a la conclusió que l'òptim resultat respondrà a una transformació local que millora notablement els resultats. Finalment el capítol sisé recopila les conclusions a les quals s'ha arribat una vegada ultimat el treball, juntament amb algunes reflexions a tenir en compte per a la seua discussió. En últim lloc s'esmenten les línies futures que pot prendre aquesta recerca. Quatre apèndixs tanquen el treball: el primer està dedicat a l'exposició teòrica de zones de diferent significació aplicada en el capítol cinquè y el segon fa referència als detalls del mètode de resolució per arcs capaços dut a terme per a realitzar la densificació de punts necessària per a obtenir els millors resultats en la georreferenciació del plànol, amb l'avantatge afegit de poder evitar l'estacionament en vèrtexs de difícil accés. El tercer tracta l'adquisició dels plànols en format digital, i un últim a / Villar Cano, M. (2016). Avances en la metodología de recuperación y georreferenciación continua gaussiana de una cartografía antigua: Aplicación al plano parcelario municipal de Valencia de 1929 [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62221
28

Use of multivariate statistical methods for the analysis of metabolomic data

Hervás Marín, David 12 November 2019 (has links)
[ES] En las últimas décadas los avances tecnológicos han tenido como consecuencia la generación de una creciente cantidad de datos en el campo de la biología y la biomedicina. A día de hoy, las así llamadas tecnologías "ómicas", como la genómica, epigenómica, transcriptómica o metabolómica entre otras, producen bases de datos con cientos, miles o incluso millones de variables. El análisis de datos ómicos presenta una serie de complejidades tanto metodoló-gicas como computacionales que han llevado a una revolución en el desarrollo de nuevos métodos estadísticos específicamente diseñados para tratar con este tipo de datos. A estas complejidades metodológicas hay que añadir que, en la mayor parte de los casos, las restricciones logísticas y/o económicas de los proyectos de investigación suelen conllevar que los tamaños muestrales en estas bases de datos con tantas variables sean muy bajos, lo cual no hace sino empeorar las dificultades de análisis, ya que se tienen muchísimas más variables que observaciones. Entre las técnicas desarrolladas para tratar con este tipo de datos podemos encontrar algunas basadas en la penalización de los coeficientes, como lasso o elastic net, otras basadas en técnicas de proyección sobre estructuras latentes como PCA o PLS y otras basadas en árboles o combinaciones de árboles como random forest. Todas estas técnicas funcionan muy bien sobre distintos datos ómicos presentados en forma de matriz (IxJ). Sin embargo, en ocasiones los datos ómicos pueden estar expandidos, por ejemplo, al tomar medidas repetidas en el tiempo sobre los mismos individuos, encontrándonos con estructuras de datos que ya no son matrices, sino arrays tridimensionales o three-way (IxJxK). En estos casos, la mayoría de las técnicas citadas pierden parte de su aplicabilidad, quedando muy pocas opciones viables para el análisis de este tipo de estructuras de datos. Una de las técnicas que sí es útil para el análisis de estructuras three-way es N-PLS, que permite ajustar modelos predictivos razonablemente precisos, así como interpretarlos mediante distintos gráficos. Sin embargo, relacionado con el problema de la escasez de tamaño muestral relativa al desorbitado número de variables, aparece la necesidad de realizar una selección de variables relacionadas con la variable respuesta. Esto es especialmente cierto en el ámbito de la biología y la biomedicina, ya que no solo se quiere poder predecir lo que va a suceder, sino entender por qué sucede, qué variables están implicadas y, a poder ser, no tener que volver a recoger los cientos de miles de variables para realizar una nueva predicción, sino utilizar unas cuantas, las más importantes, para poder diseñar kits predictivos coste/efectivos de utilidad real. Por ello, el objetivo principal de esta tesis es mejorar las técnicas existentes para el análisis de datos ómicos, específicamente las encaminadas a analizar datos three-way, incorporando la capacidad de selección de variables, mejorando la capacidad predictiva y mejorando la interpretabilidad de los resultados obtenidos. Todo ello se implementará además en un paquete de R completamente documentado, que incluirá todas las funciones necesarias para llevar a cabo análisis completos de datos three-way. El trabajo incluido en esta tesis por tanto, consta de una primera parte teórico-conceptual de desarrollo de la idea del algoritmo, así como su puesta a punto, validación y comprobación de su eficacia; de una segunda parte empírico-práctica de comparación de los resultados del algoritmo con otras metodologías de selección de variables existentes, y de una parte adicional de programación y desarrollo de software en la que se presenta todo el desarrollo del paquete de R, su funcionalidad y capacidades de análisis. El desarrollo y validación de la técnica, así como la publicación del paquete de R, ha permitido ampliar las opciones actuales para el análisis / [CA] En les últimes dècades els avançaments tecnològics han tingut com a conseqüència la generació d'una creixent quantitat de dades en el camp de la biologia i la biomedicina. A dia d'avui, les anomenades tecnologies "òmiques", com la genòmica, epigenòmica, transcriptòmica o metabolòmica entre altres, produeixen bases de dades amb centenars, milers o fins i tot milions de variables. L'anàlisi de dades 'òmiques' presenta una sèrie de complexitats tant metodolò-giques com computacionals que han portat a una revolució en el desenvolupament de nous mètodes estadístics específicament dissenyats per a tractar amb aquest tipus de dades. A aquestes complexitats metodològiques cal afegir que, en la major part dels casos, les restriccions logístiques i / o econòmiques dels projectes de recerca solen comportar que les magnituts de les mostres en aquestes bases de dades amb tantes variables siguen molt baixes, el que no fa sinó empitjorar les dificultats d'anàlisi, ja que es tenen moltíssimes més variables que observacions Entre les tècniques desenvolupades per a tractar amb aquest tipus de dades podem trobar algunes basades en la penalització dels coeficients, com lasso o elastic net, altres basades en tècniques de projecció sobre estructures latents com PCA o PLS i altres basades en arbres o combinacions d'arbres com random forest. Totes aquestes tècniques funcionen molt bé sobre diferents dades 'òmiques' presentats en forma de matriu (IxJ), però, en ocasions les dades òmiques poden estar expandits, per exemple, cuan ni ha mesures repetides en el temps sobre els mateixos individus, trobant-se amb estructures de dades que ja no són matrius, sinó arrays tridimensionals o three-way (IxJxK). En aquestos casos, la majoria de les tècniques mencionades perden tota o bona part de la seua aplicabilitat, quedant molt poques opcions viables per a l'anàlisi d'aquest tipus d'estructures de dades. Una de les tècniques que sí que és útil per a l'anàlisi d'estructures three-way es N-PLS, que permet ajustar models predictius raonablement precisos, així com interpretar-los mitjançant diferents gràfics. No obstant això, relacionat amb el problema de l'escassetat de mostres relativa al desorbitat nombre de variables, apareix la necessitat de realitzar una selecció de variables relacionades amb la variable resposta. Això és especialment cert en l'àmbit de la biologia i la biomedicina, ja que no només es vol poder predir el que va a succeir, sinó entendre per què passa, quines variables estan implicades i, si pot ser, no haver de tornar a recollir els centenars de milers de variables per realitzar una nova predicció, sinó utilitzar unes quantes, les més importants, per poder dissenyar kits predictius cost / efectius d'utilitat real. Per això, l'objectiu principal d'aquesta tesi és millorar les tècniques existents per a l'anàlisi de dades òmiques, específicament les encaminades a analitzar dades three-way, incorporant la capacitat de selecció de variables, millorant la capacitat predictiva i millorant la interpretabilitat dels resultats obtinguts. Tot això s'implementarà a més en un paquet de R completament documentat, que inclourà totes les funcions necessàries per a dur a terme anàlisis completes de dades three-way. El treball inclòs en aquesta tesi per tant, consta d'una primera part teorica-conceptual de desenvolupament de la idea de l'algoritme, així com la seua posada a punt, validació i comprovació de la seua eficàcia, d'una segona part empíric-pràctica de comparació dels resultats de l'algoritme amb altres metodologies de selecció de variables existents i d'una part adicional de programació i desenvolupament de programació en la qual es presenta tot el desenvolupament del paquet de R, la seua funcionalitat i capacitats d'anàlisi. El desenvolupament i validació de la tècnica, així com la publicació del paquet de R, ha permès ampliar les opcions actuals per a l'anàlis / [EN] In the last decades, advances in technology have enabled the gathering of an increasingly amount of data in the field of biology and biomedicine. The so called "-omics" technologies such as genomics, epigenomics, transcriptomics or metabolomics, among others, produce hundreds, thousands or even millions of variables per data set. The analysis of 'omic' data presents different complexities that can be methodological and computational. This has driven a revolution in the development of new statistical methods specifically designed for dealing with these type of data. To this methodological complexities one must add the logistic and economic restrictions usually present in scientific research projects that lead to small sample sizes paired to these wide data sets. This makes the analyses even harder, since there is a problem in having many more variables than observations. Among the methods developed to deal with these type of data there are some based on the penalization of the coefficients, such as lasso or elastic net, others based on projection techniques, such as PCA or PLS, and others based in regression or classification trees and ensemble methods such as random forest. All these techniques work fine when dealing with different 'omic' data in matrix format (IxJ), but sometimes, these IxJ data sets can be expanded by taking, for example, repeated measurements at different time points for each individual, thus having IxJxK data sets that raise more methodological complications to the analyses. These data sets are called three-way data. In this cases, the majority of the cited techniques lose all or a good part of their applicability, leaving very few viable options for the analysis of this type of data structures. One useful tool for analyzing three-way data, when some Y data structure is to be predicted, is N-PLS. N-PLS reduces the inclusion of noise in the models and obtains more robust parameters when compared to PLS while, at the same time, producing easy-to-understand plots. Related to the problem of small sample sizes and exorbitant variable numbers, comes the issue of variable selection. Variable selection is essential for facilitating biological interpretation of the results when analyzing 'omic' data sets. Often, the aim of the study is not only predicting the outcome, but also understanding why it is happening and also what variables are involved. It is also of interest being able to perform new predictions without having to collect all the variables again. Because all of this, the main goal of this thesis is to improve the existing methods for 'omic' data analysis, specifically those for dealing with three-way data, incorporating the ability of variable selection, improving predictive capacity and interpretability of results. All this will be implemented in a fully documented R package, that will include all the necessary functions for performing complete analyses of three-way data. The work included in this thesis consists in a first theoretical-conceptual part where the idea and development of the algorithm takes place, as well as its tuning, validation and assessment of its performance. Then, a second empirical-practical part comes where the algorithm is compared to other variable selection methodologies. Finally, an additional programming and software development part is presented where all the R package development takes place, and its functionality and capabilities are exposed. The development and validation of the technique, as well as the publication of the R package, has opened many future research lines. / Hervás Marín, D. (2019). Use of multivariate statistical methods for the analysis of metabolomic data [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/130847
29

Estudio del cuestionario de evaluación del profesorado de la UPV mediante opinión de los estudiantes. Tratamiento estadístico

Martínez Gómez, Mónica 06 May 2008 (has links)
La mejora de la calidad de las instituciones universitarias constituye el reto más importante en los próximos años para las universidades y el instrumento potencial para ello lo constituye la evaluación institucional, en general, y la evaluación de la actividad docente, en especial. El cuestionario de opinión de los estudiantes, es el instrumento de evaluación de la actividad docente más generalizado en las universidades españolas. El objetivo general del trabajo es desarrollar una metodología estadística adecuada para extraer, analizar e interpretar la información contenida en el Cuestionario de Evaluación Docente mediante Opinión de los Alumnos (CEDA) de la UPV, con la finalidad de optimizar su utilización práctica. El estudio se centra en la aplicación de distintas técnicas multivariantes a las puntuaciones medias e individuales obtenidas en los ítems del cuestionario y a diversas características descriptivas referentes al profesor o asignatura. Con la utilización conjunta de las técnicas propuestas, se pretende optimizar el uso del CEDA como herramienta de medida e indicador de calidad de la enseñanza en la universidad, para introducir actuaciones de mejora continua en los procesos educativos de la UPV. DESCRIPTORES Análisis multivariantes; Análisis de encuestas; Calidad de la docencia universitaria; Cuestionario de Evaluación Docente. / Martínez Gómez, M. (2005). Estudio del cuestionario de evaluación del profesorado de la UPV mediante opinión de los estudiantes. Tratamiento estadístico [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1891
30

Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos

Barceló Cerdá, Susana 04 May 2016 (has links)
[EN] Statistical Process Control (SPC) and the Automatic Process Control (APC) are two control philosophies have evolved independently until recently. The overall objective of both APC and SPC is to optimize the performance of processes, reducing the variability of the resulting characteristics around the desired values. The fundamentals of the two disciplines arise from the idea that the whole process has operation variations. These variations may affect, to a greater or lesser extent, the final product quality and the process productivity. The two methodologies conceptualize processes and control in different ways, they originated in different industrial sectors and have evolved independently, until the interest to integrate them in the control of industrial processes was deduced. It was warned that they could be complementary rather than conflicting methodologies as they were understood until then. The possibility of combining the advantages of both, integrating them into a new control paradigm was explored. First, the problem of identifying and estimating a process model is considered. Controlled variables in this model are the main feature of product quality and a productivity variable. The latter is innovative since the productivity variables are measured, but they are not considered as controlled variables. For this, two methods of multivariate time series are used, the Box-Jenkins multiple transfer function in the parsimonious way and the impulse response function obtained by Partial Least Squares regression (Time Series-Partial Least Squares, TS-PLS). These two methods were compared taking into account different aspects such as the simplicity of the modeling process in the stages of identification, estimation and model validation, as well as the utility of graphical tools that provide both methodologies, the goodness of fit obtained, and the simplicity of the mathematical structure of the model. The DMC (Dynamic Matrix Control) controller, an automatic control algorithm belonging to the family of MPC (Model Predictive Control) controllers, is derived from the estimated Box-Jenkins multiple transfer function that has been selected as the most suitable for this kind of processes. An optimal tuning method to maximize the controller performance, applying experimental design 2k-p, is presented. Finally, an integrated control system MESPC (Multivariate Engineering Statistical Process Control) whose monitoring component has been implemented applying latent structures based multivariate statistical process control methods (Lsb-MSPC), has been developed. The monitoring module is designed to act as both process and DMC controller supervisor. To do this, we estimate a NOC-PCA model (Normal Operation Conditions Principal Component Analysis), which has as variables both process-related and quality-related variables, all derived from the automatic control system. From this model, and DModX graphics have been derived. We assessed the performance of MESPC system, subjecting it to simulated potential failures or special causes of variability. / [ES] El Control Estadístico de Procesos (Statistical Process Control, SPC) y el Control Automático de Procesos (Automatic Process Control, APC) son dos filosofías de control se han desarrollado hasta recientemente de forma independiente. El objetivo general tanto del SPC como del APC, es optimizar el funcionamiento de los procesos, reduciendo la variabilidad de las características resultantes en torno a los valores deseados. El fundamento de ambas disciplinas, parte de la idea de que todo proceso presenta variaciones en su funcionamiento. Estas variaciones pueden afectar en mayor o en menor medida a la calidad final del producto y a la productividad del proceso. Las dos metodologías conceptualizan los procesos y su control de diferentes formas, se originaron en diferentes sectores industriales y han evolucionado de forma independiente, hasta que se dedujo el interés de integrarlas en el control de los procesos industriales, ya que se advirtió que podían ser complementarias, antes que contrapuestas, como se entendían hasta entonces y se exploró la posibilidad de aunar las ventajas de ambas, integrándolas en un nuevo paradigma de control. Esta tesis se centra en el estudio de la integración de procedimientos multivariantes para la regulación óptima y la monitorización estadística de procesos, con el propósito de contribuir a la mejora de la calidad y de la productividad de los procesos. La metodología propuesta se ha aplicado con fines ilustrativos a un proceso MIMO de producción en continuo de Polietileno de Alta Densidad (PEAD).En primer lugar, se considera el problema de la identificación y posterior estimación de un modelo del proceso. Las variables controladas en este modelo han sido la principal característica de calidad del producto y una variable de productividad, esto último es innovador puesto que las variables de productividad se miden, pero no se consideran variables controladas. Para ello, se emplean dos metodologías de series temporales multivariantes, la obtención de la función de transferencia múltiple en forma parsimoniosa de Box-Jenkins y la obtención de la función de respuesta a impulsos mediante los modelos de regresión por mínimos cuadrados parciales (Time Series-Partial Least Squares, TS-PLS). Estas dos metodologías se han comparado teniendo en cuenta distintos aspectos como son la simplicidad del proceso de modelado en las etapas de identificación, estimación y validación del modelo, así como la utilidad de las herramientas gráficas que proporcionan ambas metodologías, la bondad de ajuste obtenida, y la simplicidad de la estructura matemática del modelo. A partir del modelo de función de transferencia múltiple estimado, elegido como el más adecuado para este tipo de procesos, se desarrolla el controlador DMC (Dynamic Matrix Control), un algoritmo de control automático que pertenece a la familia del Control Predictivo basado en Modelos (Model Predictive Control, MPC). Se presenta un método de sintonizado óptimo del controlador que permita maximizar su rendimiento, aplicando diseño de experimentos 2k-p.Finalmente, se ha desarrollado un sistema de control integrado MESPC (Multivariate Engineering Statistical Process Control), cuya componente de monitorización se ha implementado aplicando métodos de control estadístico multivariante de procesos basados en técnicas de proyección en estructuras latentes. Este módulo de monitorización se ha diseñado para que actúe como supervisor tanto del proceso como del controlador DMC. Para ello, se ha estimado un modelo NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el que han intervenido tanto variables relacionadas con el proceso como con la calidad, todas derivadas de la componente del control automático. A partir de este modelo se han derivado los gráficos y DModX. Se ha evaluado el funcionamiento del sistema MESPC, sometiéndolo a fallos potenciales o causas especiales de variabiliabilidad. / [CA] El Control Estadístic de Processos (Statistical Process Control, SPC) i del Control Automàtic de Processos (Automatic Process Control, APC) son dues filosofies de control s'han desenvolupat fins a recentment de forma independent. L'objectiu general tant del SPC com del APC, és optimitzar el funcionament dels processos, reduint la variabilitat de les característiques resultants entorn dels valors desitjats. El fonament d'ambdues disciplines, part de la idea que tot procés presenta variacions en el seu funcionament. Aquestes variacions poden afectar en major o en menor mesura a la qualitat final del producte i a la productivitat del procés. Les dues metodologies conceptualitzen els processos i el seu control de diferents formes, es van originar en diferents sectors industrials i han evolucionat de forma independent, fins que es va deduir l'interès d'integrar-les en el control dels processos industrials, ja que es va advertir que podien ser complementàries, abans que contraposades, com s'entenien fins llavors i es va explorar la possibilitat de conjuminar els avantatges d'ambdues, integrant-les en un nou paradigma de control. Aquesta tesi se centra en l'estudi de la integració de procediments multivariants per a la regulació òptima i el monitoratge estadístic de processos amb el propòsit de contribuir a la millora de la qualitat i de la productivitat dels processos. La metodologia proposada s'ha aplicat amb finalitats il·lustratives a un procés MIMO de producció en continu de Polietilè d'Alta Densitat (PEAD). En primer lloc, es considera el problema de la identificació i posterior estimació d'un model del procés. Les variables controlades en aquest model han sigut la principal característica de qualitat del producte i una variable de productivitat, açò últim és innovador ja que les variables de productivitat es mesuren, però no es consideren variables controlades. Per a açò, s'utilitzen dues metodologies de sèries temporals multivariants, l'obtenció de la funció de transferència múltiple en forma parsimòniosa de Box-Jenkins i l'obtenció de la funció de resposta a impulsos mitjançant els models de regressió per mínims quadrats parcials (Times Series-Partial Least Squares, TS-PLS). Aquestes dues metodologies s'han comparat tenint en compte diferents aspectes com són la simplicitat del procés de modelatge en les etapes d'identificació, estimació i validació del model, així com la utilitat de les eines gràfiques que proporcionen ambdues metodologies, la bondat d'ajust obtinguda, i la simplicitat de l'estructura matemàtica del model. A partir del model de funció de transferència múltiple estimat, triat com el més adequat per a aquest tipus de processos, es desenvolupa el controlador DMC (Dynamic Matrix Control), un algorisme de control automàtic que pertany a la família del Control Predictiu basat en Models (Model Predictive Control, MPC). Es presenta un mètode de sintonitzat òptim del controlador que permeta maximitzar el seu rendiment, aplicant disseny d'experiments 2k-p. Finalment, s'ha desenvolupat un sistema de control integrat MESPC (Multivariate Engineering Statistical Process Control). Per a implementar la component de monitoratge d'aquest sistema integrat s'han usat mètodes de control estadístic multivariants de processos basats en tècniques de projecció en estructures latents (Latent structures based-Multivariate Statistical Process Control). Aquest mòdul de monitoratge s'ha dissenyat perquè actue com a supervisor tant del procés com del controlador DMC. Per a açò, s'ha estimat un model NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el qual han intervingut variables relacionades tant amb el procés, com amb la qualitat, totes derivades de la component del control automàtic. A partir d'aquest model s'han derivat els gràfics i DModX. S'ha avaluat el funcionament del sistema MESPC, sotmetent-lo a fallades potencials o causes especials de / Barceló Cerdá, S. (2016). Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63442

Page generated in 0.1203 seconds