• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • Tagged with
  • 9
  • 9
  • 7
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Caracterización y optimización de los gráficos X-RL2 para el control de la posición y S-RL2 para el control de la dispersión

Campos Avendaño, Gustavo Andrés 09 July 2012 (has links)
En el entorno productivo y de manufactura, el control estadístico de procesos (SPC) es una herramienta ampliamente utilizada para mantener la calidad del producto fabricado. Dentro del SPC, los gráficos de control han sido objeto de innumerables investigaciones, todas ellas encaminadas a aumentar el desempeño de los mismos. Esto es debido a que los clásicos gráficos de control X� de Shewhart y S de Shewhart, aunque de uso muy extendido, presentan la desventaja de su poca efectividad para detectar cambios pequeños o moderados en la media y en la desviación del proceso respectivamente. Para intentar mitigar dicha dificultad, diferentes autores han planteado numerosas alternativas a los mencionados gráficos de control. Entre las más destacadas se encuentran los gráficos con reglas adicionales, gráficos EWMA, gráficos CUSUM, gráficos con tamaño de muestra e intervalo de muestreo variable, gráficos sintéticos, etc. En la presente tesis doctoral se estudian, caracterizan y optimizan dos nuevos gráficos de control. El primero es el gráfico de control denominado X� -RL2 que combina un gráfico de control X� de Shewhart con un gráfico RL2. El segundo es el gráfico de control S-RL2 que combina el gráfico S de Shewhart con un gráfico RL2. Con los nuevos gráficos desarrollados se mejora el desempeño de los clásicos gráficos X� y S propuestos por el doctor Walter Shewhart para ciertos tamaños de muestra y magnitudes de cambio de diseño establecidos. De igual manera, tanto el gráfico de control X� -RL2 como el S-RL2 presentan un desempeño superior a los gráficos sintéticos para ciertos parámetros de diseño. Adicionalmente, el desempeño de los gráficos de control X� -RL2 es comparado con la de los gráficos con reglas adicionales, gráficos CUSUM y EWMA. Igualmente, el desempeño del gráfico S-RL2 es comparado con la de los gráficos CUSUM S y EWMA S, con resultados ventajosos en algunos casos. Todas las comparaciones se realizaron en el escenario zero-state usando la métrica del ARL / Campos Avendaño, GA. (2012). Caracterización y optimización de los gráficos X-RL2 para el control de la posición y S-RL2 para el control de la dispersión [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16467 / Palancia
2

Control estadístico multivariado de procesos : nuevas estrategias para identificación de fallas

Cedeño Viteri, Marco Vinicio 04 December 2015 (has links)
El control estadístico multivariado de procesos comprende estrategias destinadas a monitorear y controlar un proceso industrial. Las mismas emplean métodos estadísticos con el fin de extraer información cuantitativa del sistema a partir de datos históricos, y modelar su comportamiento normal. Durante la operación del proceso, se analiza si éste se encuentra en control estadístico mediante el empleo de test de hipótesis. Si se detectan desviaciones respecto de la condición operativa normal, la identificación del conjunto de observaciones mediante las cuales se manifiesta la situación anómala ayuda a diagnosticar la causa del problema, y a tomar decisiones conducentes a su resolución. Esta tesis comprende el desarrollo e implementación de nuevas estrategias destinadas a aislar las observaciones que revelan un problema operativo, tanto para procesos continuos como para los discontinuos. Para tal fin, se define el concepto del Vecino en Control más Cercano (Nearest in Control Neighbor, NICN) a la observación, como aquel que minimiza una cierta medida de distancia a la misma, y se ubica en el contorno de la región de control estadístico del proceso. Se evalúan las contribuciones de las variables al estadístico en función de la distancia entre el NICN y la observación, y se determina el conjunto de variables que revelan el comportamiento anormal de dos maneras diferentes. Una de ellas consiste en estimar la función de densidad de probabilidad empírica de la contribución de la variable al estadístico cuando ésta no revela la situación anormal. La otra aplica una técnica de agrupamiento jerárquico y se desarrolla especialmente para el monitoreo de procesos discontinuos. Las nuevas técnicas de aislamiento de variables evitan todas las suposiciones inherentes a los métodos existentes. Se presenta un exhaustivo análisis del desempeño de los procedimientos desarrollados en esta tesis para un ejemplo de aplicación complejo, que comprende un bioreactor para la producción de penicilina. Este opera en modo discontinuo en la primera fase del proceso y de manera semicontinua en la segunda. Se utiliza un conjunto de índices de desempeño con el fin de comparar el comportamiento de las técnica propuesta con el obtenido empleando otras metodologías presentadas recientemente en la literatura. Con fines de comparación, se selecciona un procedimiento que utiliza directamente los valores de las observaciones (OSS - Original Space Strategy), y otro que emplea sus proyecciones en un espacio de variables latentes (Análisis de Componentes Principales Kernel). El estudio de desempeño muestra que la metodología propuesta permite un aislamiento perfecto de las variables mediante las cuales se manifiesta la situación anormal en una amplia mayoría de los casos simulados. Los lineamientos generales de la técnica propuesta pueden extenderse con facilidad para abordar el monitoreo empleando otros estadísticos y otros espacios de variable. / Multivariate statistical process control involves a group of strategies devoted to monitor and control an industrial process. Those use statistical methods to extract quantitative information of the system using historical data, and model its normal behavior. During the process operation, a statistical hypothesis test is used to analyze if the process is under statistical control. If deviations with respect to the normal operating conditions are detected, the identification of the observations which reveal the abnormal situation helps to diagnose the cause of the failure, and to take proper decisions to solve it. This thesis presents the development and implementation of new strategies used to isolate the observations that reveal the fault cause for continuous and batch processes. With this purpose, the Nearest in Control Neighbor (NICN) to the observation point is defined as the one which minimizes a certain distance measure with respect to the measurement vector, and it is located on the statistical control region contour. Variable contributions to the statistic are evaluated in terms of the distance between the NICN and the observation, and the subset of variables which reveal the fault are determined using two different methods. One of them estimates the empirical probability density function of the variable contribution to the statistic when it does not reveal the fault. The other one applies a hierarchical clustering technique, and it is especially developed for batch process monitoring. The new variable isolation techniques avoid the use of the assumptions of the existing methods. An extensive performance analysis of the procedures developed in this thesis is presented. The application example comprises a bioreactor for the production of penicillin. During the first process phase, it operates in batch mode and it turns to a semibatch operation next. A set of performance indexes are used to compare the behavior of the proposed technique with respect to that provided by other methodologies recently presented in the literature. For comparative purposes, two procedures are selected. One of them uses the observations without transforming them (OSS - Original Space Strategy). The other one employs their projections on a latent variable space (Kernel Principal Component Analysis). Performance studies show that the new methodology allows a perfect isolation of the set of variables which reveal the faults for the majority of the simulated cases. The conceptual framework of the proposed technique can be easily extended to deal with methods that use other statistics and variable spaces.
3

Control estadístico de variables cuantitativas mediante inspección por atributos apoyada en el diseño de galgas con dimensiones óptimas.

Mosquera Restrepo, Jaime 16 December 2019 (has links)
[ES] En el Control Estadístico de Procesos, los gráficos de control por variables suelen ser la herramienta empleada para vigilar el comportamiento de una característica cuantitativa de calidad. Para implementar estos gráficos se requiere de la medición periódica de una muestra de unidades del proceso. En algunos procesos, obtener una medición exacta de la variable de calidad es una tarea compleja, que demanda gran cantidad de recursos (costos, tiempo, mano de obra), o que deteriora/destruye la pieza inspeccionada. En estos casos, una alternativa más ágil y económica consiste en realizar el control basado en la verificación de piezas con una galga. Dado que la verificación con una galga suele ser tan sencilla como la verificación de un atributo, el control basado en galgas es mucho más ágil y económico que el control basado en mediciones exactas. En la literatura del Control Estadístico de Procesos se encuentran múltiples propuestas de esquemas de control basado en inspección por galgas. En esta Tesis doctoral realizamos una detallada revisión de estas propuestas y proponemos un nuevo esquema de control basado en galgas, cuyo desempeño estadístico es siempre igual o mejor que el de cualquiera de las propuestas previas. Este esquema es diseñado para el control de la media/varianza de una variable de calidad con distribución normal y posteriormente es extendido para el control de estos parámetros en distribuciones asimétricas (log-normal, skew-normal y Weibull). Adicionalmente, sobre el nuevo esquema de control basado en galgas, se realiza una adaptación de las estrategias de tamaño de muestra adaptativo, Doble muestreo y Tamaño de Muestra Variable, e incorporamos memoria al estadístico de control a través de un esquema de pesos exponencialmente ponderados EWMA. Como resultado se obtienen nuevos esquemas de control, cuya operación e implementación es tan sencilla como la de los gráficos de control por atributos, pero con mejor desempeño estadístico que los gráficos de control por variables. / [CAT] En el Control Estadístic de Processos, els gràfics de control per variables solen ser la ferramenta empleada per a vigilar el comportament d'una característica quantitativa de qualitat. Per a implementar estos gràfics es requerix del mesurament periòdic d'una mostra d'unitats del procés. En alguns processos, obtindre un mesurament exacte de la variable de qualitat és una tasca complexa, que demanda gran quantitat de recursos (costos, temps, mà d'obra) , o que deteriora/ destruïx la peça inspeccionada. En estos casos, una alternativa més àgil i econòmica consistix a realitzar el control basat en la verificació de peces amb una llebrera. Atés que la verificació amb una llebrera sol ser tan senzilla com la verificació d'un atribut, el control basat en llebreres és molt més àgil i econòmic que el control basat en mesuraments exactes. En la literatura del Control Estadístic de Processos es troben múltiples propostes d'esquemes de control basat en inspecció per llebreres. En esta Tesi doctoral realitzem una detallada revisió d'estes propostes i proposem un nou esquema de control basat en llebreres, l'exercici estadístic del qual és sempre igual o millor que el de qualsevol de les propostes prèvies. Este esquema és dissenyat per al control de la media/varianza d'una variable de qualitat amb distribució normal i posteriorment és estés per al control d'estos paràmetres en distribucions asimètriques (log-normal, skew-normal i Weibull). Addicionalment, sobre el nou esquema de control basat en llebreres, es realitza una adaptació de les estratègies de grandària de mostra adaptatiu, Doble mostratge i Grandària de Mostra Variable, i incorporem memòria a l'estadístic de control a través d'un esquema de pesos exponencialment ponderats EWMA. Com resultat s'obtenen nous esquemes de control, l'operació i implementació és tan senzilla com la dels gràfics de control per atributs, però amb millor exercici estadístic que els gràfics de control per variables. / [EN] In Statistical Process Control, control charts by variables are usually the tool used to monitor a quantitative quality characteristic. To implement these charts, periodic measurement of a sample of process units is required. In some processes, obtaining an accurate measurement of the quality variable is a complex task, which demands a large amount of resources (costs, time, labor), or that deteriorates / destroys the inspected unit. In these cases, a more agile and economical alternative is to perform the control based on the verificatión of units with a gauge. Since the verificatión with a gauge is usually as simple as checking an attribute, the control based on gauges is much more agile and economical than the control based on exact measurements. Several proposals of control schemes based on inspectión by gauges are found in the Statistical Process Control literature. In this PhD thesis we review these proposals and propose a new control scheme based on gauges, whose statistical performance is always the same or better than that of any of the previous proposals. This scheme is designed for the control of the means / variance of a quality variable with normal distributión and is subsequently extended for the control of these parameters in asymmetric distributións (log-normal, skew-normal and Weibull). In additión, on the new gauge-based control scheme, an adaptatión of the adaptive sample size: double sampling and variable sample size strategies, is carried out, and incorporates memory to the control statistic through an exponentially weighted EWMA weights scheme. As a result, new control schemes were obtained, whose operatión and implementatión is as simple as that of the control charts by attributes, but with a best statistical performance than the control charts by variables. / Inicialmente quiero agradecer a la Universidad del Valle, Cali – Colombia, por el soporte económico que me brindaron para garantizar mi estancia en la ciudad de Valencia y para el desarrollo de esta tesis doctoral. / Mosquera Restrepo, J. (2019). Control estadístico de variables cuantitativas mediante inspección por atributos apoyada en el diseño de galgas con dimensiones óptimas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/133059 / TESIS
4

Estimación estadística, modelado y análisis de la trasmisión y coste de la variabilidad en procesos multi-etapa. Aplicación en la fabricación de baldosas cerámicas

Gras Llopis, Matias Alberto 20 December 2010 (has links)
Metodología para estimar un modelo matemático desarrollado y validado a partir de la información obtenida en un proceso, para explicar y predecir la variación observable en una característica de calidad así como un modelo que explique el coste de la variación. Los modelos se obtienen utilizando herramientas de control estadístico y los conceptos de costes de calidad y su combinación permite identificar las actuaciones más eficaces para la mejora del proceso y predecir su resultado. La aplicación práctica se realiza en un proceso de fabriación de baldosas cerámicas para reducir la variación dimensional.
5

Órdenes de experimentación en diseños factoriales

Correa Espinal, Alexander Alberto 21 June 2007 (has links)
Cuando se plantea un diseño factorial la práctica habitual es recomendar que los experimentos se realicen en orden aleatorio. Esta aleatorización tiene como objetivo el proteger de la posible influencia de factores desconocidos, ya que se espera que esa influencia quede difuminada entre todos los efectos de forma que ninguno se vea especialmente afectado y no se cometan errores al valorar su significación estadística. Pero este proceder tiene dos inconvenientes importantes: 1. El número de cambios de nivel en los factores que exige la aleatorización puede ser grande (bastante mayor que otras posibles ordenaciones) y difícil de llevar a la práctica, lo que complica y encarece la experimentación. 2. Si se realizan unas hipótesis que parecen muy razonables respecto al tipo de influencia que ejercen los factores desconocidos, existen órdenes claramente mejores que otros para minimizar la influencia de esos factores ajenos a la experimentación.Numerosos autores han estado trabajando sobre este tema y ya han sido resueltos algunos aspectos, como el de determinar los órdenes de experimentación que mejor neutralizan la influencia de factores desconocidos, aunque sin tener en cuenta el número de cambios en los niveles de los factores que esa ordenación implica. Adicionalmente, se ha resuelto el problema de encontrar órdenes que presentan el mínimo número de cambios de nivel, pero sin considerar de forma simultánea la posible influencia de los factores desconocidos.Cuando se considera conjuntamente la influencia de los factores desconocidos y el número de cambios en los factores, se ha llegado hasta los diseños con 16 experimentos, pero no más allá porque los procedimientos de búsqueda empleados son inviables cuando el número de ordenaciones posibles se hace tan grande (con 32 experimentos el número de ordenaciones posibles es 32! = 2,6 · 1035)La tesis que se presenta tiene por objetivo encontrar un procedimiento que permita obtener órdenes de experimentación con el mínimo número de cambios en los factores y que además minimicen la influencia de los factores desconocidos en la estimación de los efectos, para cualquier diseño factorial a 2 niveles. Además, se pretende elaborar un procedimiento de forma que dichas ordenaciones, con las propiedades deseadas, puedan ser obtenidas de forma fácil por el experimentador. El contenido se presenta estructurado en 7 capítulos y 8 apéndices. El capitulo 1 presenta las motivaciones que se consideraron para seleccionar este tema de investigación y define los elementos fundamentales que se presentan a lo largo del trabajo, tales como los diseños factoriales a dos niveles -completos o fraccionales- los problemas que puede causar la aleatorización en estos diseños, y cómo cuantificar la influencia de los factores ajenos a la experimentación en la estimación de los efectos. Asimismo, se plantean las hipótesis y el contexto en que se buscarán los órdenes de ejecución que presentan las propiedades deseadas.En el capitulo 2, se realiza una revisión bibliográfica exhaustiva de las propuestas existentes respecto a los órdenes de ejecución de este tipo de diseños para conseguir que las conclusiones del análisis no se vean afectadas por la influencia de factores ajenos a la experimentación y/o que el número de cambios a realizar en los niveles de los factores sea mínimo. Al final del capítulo se comentan las debilidades del estado del arte actual y se plantean los aportes previstos en esta tesis. En el capitulo 3, se presenta un procedimiento original que permite encontrar órdenes de experimentación para diseños factoriales a 2 niveles con el mínimo número de cambios en los factores y un sesgo conocido. A este procedimiento lo denominamos método de duplicación, ya que duplicando las filas de un diseño 2k y agregando un factor adicional con una determinada secuencia de signos, permite obtener un diseño 2k+1 que conserve las características del diseño anterior. Una importante propiedad de este método es que puede aplicarse a cualquier número de factores. Este procedimiento garantiza el mínimo número de cambios de nivel, pero no siempre garantiza el mínimo sesgo (medida de la influencia de los factores desconocidos en la estimación de los efectos). En el capitulo 4, se utilizan diferentes métodos de búsqueda para hallar órdenes de experimentación que presenten un sesgo menor al proporcionado por el método de la duplicación.Estos métodos son:- Búsqueda aleatoria con restricciones: Se utiliza un procedimiento que va generando aleatoriamente el orden de ejecución de los experimentos pero de forma que a una condición experimental solo puede seguirle otra condición que presente solo un cambio en los niveles de los factores (para garantizar el mínimo número de cambios). Una vez completada una ordenación se calcula su sesgo, y se almacenan las ordenaciones con un sesgo por debajo de un cierto umbral.- Búsqueda exhaustiva: Se utiliza un algoritmo planteado por Dickinson (1974) y que fue adaptado por De León (2005). Es similar al algoritmo anterior, pero no genera las condiciones de experimentación de forma aleatoria sino que sigue una sistemática para encontrar todas las ordenaciones posibles. De esta forma se ha encontrado la mejor ordenación para diseños con 32 experimentos, hasta ahora desconocida, entendiendo por mejor la que presenta mínimo número de cambios en los niveles de los factores y de entre estas, la que presenta menor sesgo. - Búsqueda exhaustiva con alimentación forzada. Es imposible explorar exhaustivamente todas las ordenaciones posibles si el número de experimentos es mayor a 32. Para explorar la zona de ordenaciones más prometedora se ha aplicado el procedimiento de búsqueda exhaustiva en tono a una ordenación que ya es buena y que ha sido obtenida por los métodos anteriores.Para diseños con más de 32 experimentos los mejores órdenes se obtienen de una combinación de los diferentes métodos propuestos. Así, para diseños con 64 experimentos el mejor orden se obtiene con el método de búsqueda exhaustiva con alimentación forzada, alimentando el algoritmo con una ordenación obtenida a través de la búsqueda aleatoria con restricciones. La mejor ordenación para 128 experimentos se obtiene de la misma forma, pero alimentando el algoritmo con una ordenación obtenida por duplicación del orden obtenido para 64 experimentos.Los métodos descritos en el capítulo 4 proporcionan lo que denominamos "órdenes semilla", ya que a partir de estos órdenes se pueden deducir otros con sus mismas propiedades. En el capitulo 5, se presentan dos procedimientos para obtener órdenes con las características deseadas a partir de los órdenes semilla. Estos métodos los denominamos método de permutación y cambios de signo y el método de las columnas de expansión. Ambos métodos han sido programados en macros de Minitab, lo cual permite generar de forma automática y aleatoria (de entre todos los posibles) los órdenes con las características propuestas. En el capitulo 6, se presenta un nueva medida de atenuación de la influencia de los factores ajenos a la experimentación que permite comparar la atenuación entre diseños factoriales con diferente número de factores, mostrando que el procedimiento de duplicación presentado en el capitulo 3, es adecuado para obtener órdenes de experimentación con las características propuestas en diseños con más de 128 experimentos. Finalmente, en el capitulo 7 se presentan las principales conclusiones obtenidas y se definen posibles futuras líneas de investigación que podrían ampliar los estudios realizados.En el anexo 1 se presentan los órdenes propuestos por De León (2005) para diseños con 8 y 16 experimentos, citados en diversas ocasiones a lo largo de la tesis y que constituyen uno de los puntos de partida. El anexo 2 presenta el lenguaje de programación FreeBasic, utilizado para implementar los algoritmos de búsqueda de ordenaciones, y en los anexos 3 y 4 se incluyen 2 de los programas realizados: el de búsqueda aleatoria para diseños con 64 experimentos (anexo 3) y búsqueda exhaustiva para diseño con 32 experimentos (anexo 4). En el anexo 5 se presenta uno de los órdenes obtenidos con las propiedades deseadas para los diseños con 128 experimentos, y en los anexos 6 y 7 se incluyen las macros realizadas con el lenguaje de programación de Minitab y que a partir de las semillas para cada tipo de experimento, propone una ordenación de entre todas las posibles que tienen las propiedades deseadas. Finalmente, en el anexo 8 se realizan algunas consideraciones sobre el análisis de los órdenes propuestos, con restricciones en la aleatorización, y se resumen las propuestas realizadas sobre este tema. / A common recommendation when thinking in a factorial design is randomizing the run order. The purpose of this randomization is to protect the response from the possible influence of unknown factors. This influence is expected to be blurred among all the effects, thus none of them is specially affected and no mistakes are made when estimating its statistical significance. But this praxis has two essential problems: 1. The number of factor's level changes due to randomization might be large (much larger than in other sequences). It can be also difficult to conduct, making the experimentation complicated and more expensive. 2. Making some reasonable hypothesis regarding the influence of the unknown factors, there are some sequences clearly better than others for minimizing the influence of this undesirable factors.Many authors have worked on this topic, and some matters have already been solved. For instance, the experimentation sequence that better neutralises the influence of unknown factors is already determined, but without taking into consideration the number of level changes that this sequence implies. It has also been solved the problem of finding sequences that have the minimum number of level changes, but without considering simultaneously the potential influence of unknown factors. When both the influence of unknown factors and the number of level changes is considered, the problem has been solved up to designs with 16 runs. But not further as the searching procedures used are nonviable when the number of possible sequences becomes so huge (with 32 runs the number of different sequences is 32! = 2,6 · 1035) The aim of this thesis is finding a procedure that makes it possible to obtain run sequences with the minimum number of level changes, and that besides minimize the influence of unknown factors in the effect estimation, for any 2 level factorial design.Moreover, the desired run sequence should be obtained easily by the experimenter when using the proposed procedure.The content is structured in 7 chapters and 8 appendixes. Chapter 1 shows the motivation that lead to chose this research topic. It also defines the basic elements of this work (complete and fractional 2 level factorial designs, problems that appear when randomizing this designs, and how to quantify the influence of unknown and undesired factors in the effect estimation). In addition, the hypothesis and context in which the search for run orders with the desired properties will take place are presented.Chapter 2 gives an exhaustive bibliographic review of the current solutions related with run orders in these designs robust to the influenceof factors alien to the experimentationand/or with minimum number of level changes. The end of the chapter lists weaknesses of the current state of the art and advances the expected contributions of this thesis. Chapter 3 presents an original procedure for finding run orders for 2 level factorial designswith the minimum number of changes in the level factors and a known bias. We called this procedure duplication method, as duplicating the rows of a 2k design and adding a factor with a specific sign sequence, a 2k+1 design with the same properties as the first design is achieved. An important property of this method is that it can be applied to any number of factors. This procedure guarantees the minimum number of level changes, but not always guaranties the minimum bias (measure of the influence that unknown factors have in the effect estimation). Chapter 4 shows different methods for finding run orders with less bias than the one produced by the duplication method. These methods are: - Random search with restrictions: The procedure randomly generates the run order, but in a way that a run is followed by another one that has only one change in the factor levels (the minimum number of changes is then guaranteed). Once the sequence is completed its bias is calculated, and the sequences with a bias under a threshold are stored.- Exhaustive search: An algorithm proposed by Dickinson (1974) and adapted by De León (2005) is used. It is similar to the previous algorithm, but it does not generate the runs in a random manner. Instead, it behaves systematically in order to find all the possible run orders. With this algorithm the best run order for designs with 32 experiments has been found (and it was unknown until now). The best run order means the one that has minimum number of changes in the levels and, among these, the one with less bias.- Exhaustive search with forced feeding. The exhaustive exploration of all possible run orders with more than 32 runs is impossible. The procedure of exhaustive search around a good run order already found with one of the previous methods allowed the exploration of the most promising run order area. For designs with more than 32 runs the best run orders are obtained from a combination of the proposed methods. For designs with 64 runs the best order comes from the exhaustive search with forced feeding method, feeding the algorithm with a run order obtained from the random search with restrictions method. We used the same procedure for obtaining the best run order for 128 runs, but feeding the algorithm with a run order obtained from duplication of the one for 64 runs.Methods described in chapter 4 provide the so called "seed orders": from this orders new ones with the same properties can be deduced. Chapter5 shows two procedures for obtaining orders with the expected properties from the seed orders. These methods are called permutation and sign change method, and expansion columns method. Both methods have been programmed as Minitab macros, making it possible to automatically and randomly generate (among all possible ones) the orders with the desired properties. A new measure for attenuating the influence of factors alien to experimentation is presented in chapter 6. This allows the comparison among the attenuation of factorial designs with different number of factors, thus showing that the duplication procedure shown in chapter 3 is appropriate for obtaining run orders with the properties desired in designs with more than 128 runs. Finally, chapter 7 gives the main conclusions and defines possible future research areas that could extend our studies.Appendix 1 shows the orders proposed by De León (2005) for designs with 8 and 16 experiments, cited several times in the thesis and one of our starting points. Appendix 2 explains the FreeBasic programming language, used for implementing the search algorithms. Appendixes 3 and 4 include 2 programs: random search for designs with 32 runs (appendix 3) and exhaustive search for designs with 32 experiments (appendix 4). Appendix 5 shows one of the obtained orders with the desired properties for designs with 128 runs. Appendixes 6 and 7 have the Minitab macros that using the seed orders for each kind of experiment proposes an order among all the possible ones with the desired properties. Finally, appendix 8 has some comments about the proposed run orders, with restrictions in the randomization, and summarizes the proposals about this topic.
6

Técnicas estadísticas para el control y la mejora de la calidad en el sector textil: aplicación en la manta y la napa termofusionada

Miró Martínez, Pau 07 May 2008 (has links)
El sector textil y las herramientas de Control Estadístico de la Calidad han evolucionado con las distintas revoluciones industriales. El nivel tecnológico de muchas empresas del sector es muy elevado pero en cambio el uso de técnicas Estadísticas es muy reducido, considerándose a menudo de gran dificultad, innecesarias y cuyos costos son elevados. La tesis que se presenta se plantea como objetivo romper con esta forma de pensar y demostrar algunas de las ventajas que puede aportar el uso de la Estadística para tomar decisiones y mejorar la calidad de productos y procesos. Para alcanzar este objetivo, se hace un breve repaso al grado de utilización de la ciencia en el sector, sobre todo en algunas comarcas de la Comunidad Valenciana en las que se centrarán las propuestas después realizadas. Esta indagación proporciona las claves necesarias para encaminar la investigación hacia dos tipos de productos diferentes, por un lado, los de hogar que son los que tradicionalmente se producen en la zona, y por otro, los técnicos que representan una oportunidad de innovación. La primera propuesta se realiza con la intención de dotar de mayor valor añadido a los productos tradicionales, mediante la incorporación de un sistema de Control de la Calidad de sus características sensoriales. Utilizando algunas técnicas de Análisis Sensorial se quiere controlar la calidad del artículo en el proceso de producción, así como definir las características sensoriales que lo caractericen y lo pueden distinguir de sus competidores. Esta propuesta se aplica a la manta para cama. La segunda propuesta quiere facilitar la innovación en materiales técnicos, aportando las herramientas necesarias para la realización de la experimentación de forma sistemática y ordenada, para poder analizar y tomar las decisiones de forma más objetiva y eficiente. Se aplica a aquellos productos técnicos que se realicen mediante la mezcla de diferentes tipos de fibras. El caso estudio consiste en optimizar la Napa obte / Miró Martínez, P. (2005). Técnicas estadísticas para el control y la mejora de la calidad en el sector textil: aplicación en la manta y la napa termofusionada [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1991 / Palancia
7

Propuesta de implementación de la metodología Lean, Control estadístico de procesos y HACCP para estabilizar la calidad en los alimentos en la industria de IV Gama con la finalidad de reducir el índice de devolución de productos / Proposal for the implementation of the Lean methodology, Statistical Process Control and HACCP to stabilize the quality and traceability of food in the IV-Range industry in order to reduce the rate of product return

Cabrera Iturrizaga, Julissa Lisseth, Zapana Gago, Oscar Anthony 11 November 2021 (has links)
El sector de Industria alimentaria aportó el 20% del PBI de Manufactura en el año 2017. Dentro de este sector se encuentra el sector de frutas y hortalizas, los cuales representan el 29% y el 7% de las exportaciones respectivamente. Las frutas y hortalizas de IV gama entre los años 2009 y 2014 crecieron más del 50% según Euro monitor Internacional. El presidente del Comité de Alimentos afirmó que en Europa consumen 128 kg/habitante y en Perú 84 kg/habitante, siendo el mayor consumidor el grupo de 20 a 39 años que representa el 33% de la población peruana en el 2018. La presente investigación estudia las pymes del subsector de IV gama. La presencia de agentes contaminantes y la reducción de la vida útil son los problemas más frecuentes que afectan la calidad de los alimentos. En la presente investigación se realizó el diagnóstico del proceso productivo a través del uso de las herramientas DAP, VSM y AMFE. El análisis reveló que los procesos de deshojado y almacenamiento son áreas vulnerables a la contaminación y reducción de la vida útil. Se realizó la vinculación del impacto de las herramientas de solución con las causas raíces del problema, en la cual se identificó que la aplicación de 5S, HACCP y SPC solucionó más del 80% de las causas raíces. La validación se realizó a través de un piloto en la cual se presentan los resultados de la propuesta de implementación en una empresa Pyme procesadora de alimentos. / The Food Industry sector contributed 20% of the Manufacturing GDP in 2017. Within this sector is the fruit and vegetable sector, which represent 29% and 7% of exports respectively. The fresh fruit and vegetables between 2009 and 2014 grew more than 50% according to Euro monitor International. The president of the Food Committee affirmed that in Europe they consume 128 kg / inhabitant and in Peru 84 kg / inhabitant, the largest consumer being the group between 20 and 39 years old, which represents 33% of the Peruvian population in 2018. This research studies SMEs in the IV range subsector. The presence of contaminating agents and the reduction of the shelf life are the most frequent problems that affect the quality of food. In this research, the diagnosis of the production process was carried out through the use of the DAP, VSM and AMFE tools. The analysis revealed that the stripping and storage processes are areas vulnerable to contamination and shortened shelf life. The impact of the solution tools was linked with the root causes of the problem, in which it was identified that the application of 5S, HACCP and SPC solved more than 80% of the root causes. The validation was carried out through a pilot in which the results of the implementation proposal in a food processing SME company are presented. / Trabajo de Suficiencia Profesional
8

Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos

Barceló Cerdá, Susana 04 May 2016 (has links)
[EN] Statistical Process Control (SPC) and the Automatic Process Control (APC) are two control philosophies have evolved independently until recently. The overall objective of both APC and SPC is to optimize the performance of processes, reducing the variability of the resulting characteristics around the desired values. The fundamentals of the two disciplines arise from the idea that the whole process has operation variations. These variations may affect, to a greater or lesser extent, the final product quality and the process productivity. The two methodologies conceptualize processes and control in different ways, they originated in different industrial sectors and have evolved independently, until the interest to integrate them in the control of industrial processes was deduced. It was warned that they could be complementary rather than conflicting methodologies as they were understood until then. The possibility of combining the advantages of both, integrating them into a new control paradigm was explored. First, the problem of identifying and estimating a process model is considered. Controlled variables in this model are the main feature of product quality and a productivity variable. The latter is innovative since the productivity variables are measured, but they are not considered as controlled variables. For this, two methods of multivariate time series are used, the Box-Jenkins multiple transfer function in the parsimonious way and the impulse response function obtained by Partial Least Squares regression (Time Series-Partial Least Squares, TS-PLS). These two methods were compared taking into account different aspects such as the simplicity of the modeling process in the stages of identification, estimation and model validation, as well as the utility of graphical tools that provide both methodologies, the goodness of fit obtained, and the simplicity of the mathematical structure of the model. The DMC (Dynamic Matrix Control) controller, an automatic control algorithm belonging to the family of MPC (Model Predictive Control) controllers, is derived from the estimated Box-Jenkins multiple transfer function that has been selected as the most suitable for this kind of processes. An optimal tuning method to maximize the controller performance, applying experimental design 2k-p, is presented. Finally, an integrated control system MESPC (Multivariate Engineering Statistical Process Control) whose monitoring component has been implemented applying latent structures based multivariate statistical process control methods (Lsb-MSPC), has been developed. The monitoring module is designed to act as both process and DMC controller supervisor. To do this, we estimate a NOC-PCA model (Normal Operation Conditions Principal Component Analysis), which has as variables both process-related and quality-related variables, all derived from the automatic control system. From this model, and DModX graphics have been derived. We assessed the performance of MESPC system, subjecting it to simulated potential failures or special causes of variability. / [ES] El Control Estadístico de Procesos (Statistical Process Control, SPC) y el Control Automático de Procesos (Automatic Process Control, APC) son dos filosofías de control se han desarrollado hasta recientemente de forma independiente. El objetivo general tanto del SPC como del APC, es optimizar el funcionamiento de los procesos, reduciendo la variabilidad de las características resultantes en torno a los valores deseados. El fundamento de ambas disciplinas, parte de la idea de que todo proceso presenta variaciones en su funcionamiento. Estas variaciones pueden afectar en mayor o en menor medida a la calidad final del producto y a la productividad del proceso. Las dos metodologías conceptualizan los procesos y su control de diferentes formas, se originaron en diferentes sectores industriales y han evolucionado de forma independiente, hasta que se dedujo el interés de integrarlas en el control de los procesos industriales, ya que se advirtió que podían ser complementarias, antes que contrapuestas, como se entendían hasta entonces y se exploró la posibilidad de aunar las ventajas de ambas, integrándolas en un nuevo paradigma de control. Esta tesis se centra en el estudio de la integración de procedimientos multivariantes para la regulación óptima y la monitorización estadística de procesos, con el propósito de contribuir a la mejora de la calidad y de la productividad de los procesos. La metodología propuesta se ha aplicado con fines ilustrativos a un proceso MIMO de producción en continuo de Polietileno de Alta Densidad (PEAD).En primer lugar, se considera el problema de la identificación y posterior estimación de un modelo del proceso. Las variables controladas en este modelo han sido la principal característica de calidad del producto y una variable de productividad, esto último es innovador puesto que las variables de productividad se miden, pero no se consideran variables controladas. Para ello, se emplean dos metodologías de series temporales multivariantes, la obtención de la función de transferencia múltiple en forma parsimoniosa de Box-Jenkins y la obtención de la función de respuesta a impulsos mediante los modelos de regresión por mínimos cuadrados parciales (Time Series-Partial Least Squares, TS-PLS). Estas dos metodologías se han comparado teniendo en cuenta distintos aspectos como son la simplicidad del proceso de modelado en las etapas de identificación, estimación y validación del modelo, así como la utilidad de las herramientas gráficas que proporcionan ambas metodologías, la bondad de ajuste obtenida, y la simplicidad de la estructura matemática del modelo. A partir del modelo de función de transferencia múltiple estimado, elegido como el más adecuado para este tipo de procesos, se desarrolla el controlador DMC (Dynamic Matrix Control), un algoritmo de control automático que pertenece a la familia del Control Predictivo basado en Modelos (Model Predictive Control, MPC). Se presenta un método de sintonizado óptimo del controlador que permita maximizar su rendimiento, aplicando diseño de experimentos 2k-p.Finalmente, se ha desarrollado un sistema de control integrado MESPC (Multivariate Engineering Statistical Process Control), cuya componente de monitorización se ha implementado aplicando métodos de control estadístico multivariante de procesos basados en técnicas de proyección en estructuras latentes. Este módulo de monitorización se ha diseñado para que actúe como supervisor tanto del proceso como del controlador DMC. Para ello, se ha estimado un modelo NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el que han intervenido tanto variables relacionadas con el proceso como con la calidad, todas derivadas de la componente del control automático. A partir de este modelo se han derivado los gráficos y DModX. Se ha evaluado el funcionamiento del sistema MESPC, sometiéndolo a fallos potenciales o causas especiales de variabiliabilidad. / [CAT] El Control Estadístic de Processos (Statistical Process Control, SPC) i del Control Automàtic de Processos (Automatic Process Control, APC) son dues filosofies de control s'han desenvolupat fins a recentment de forma independent. L'objectiu general tant del SPC com del APC, és optimitzar el funcionament dels processos, reduint la variabilitat de les característiques resultants entorn dels valors desitjats. El fonament d'ambdues disciplines, part de la idea que tot procés presenta variacions en el seu funcionament. Aquestes variacions poden afectar en major o en menor mesura a la qualitat final del producte i a la productivitat del procés. Les dues metodologies conceptualitzen els processos i el seu control de diferents formes, es van originar en diferents sectors industrials i han evolucionat de forma independent, fins que es va deduir l'interès d'integrar-les en el control dels processos industrials, ja que es va advertir que podien ser complementàries, abans que contraposades, com s'entenien fins llavors i es va explorar la possibilitat de conjuminar els avantatges d'ambdues, integrant-les en un nou paradigma de control. Aquesta tesi se centra en l'estudi de la integració de procediments multivariants per a la regulació òptima i el monitoratge estadístic de processos amb el propòsit de contribuir a la millora de la qualitat i de la productivitat dels processos. La metodologia proposada s'ha aplicat amb finalitats il·lustratives a un procés MIMO de producció en continu de Polietilè d'Alta Densitat (PEAD). En primer lloc, es considera el problema de la identificació i posterior estimació d'un model del procés. Les variables controlades en aquest model han sigut la principal característica de qualitat del producte i una variable de productivitat, açò últim és innovador ja que les variables de productivitat es mesuren, però no es consideren variables controlades. Per a açò, s'utilitzen dues metodologies de sèries temporals multivariants, l'obtenció de la funció de transferència múltiple en forma parsimòniosa de Box-Jenkins i l'obtenció de la funció de resposta a impulsos mitjançant els models de regressió per mínims quadrats parcials (Times Series-Partial Least Squares, TS-PLS). Aquestes dues metodologies s'han comparat tenint en compte diferents aspectes com són la simplicitat del procés de modelatge en les etapes d'identificació, estimació i validació del model, així com la utilitat de les eines gràfiques que proporcionen ambdues metodologies, la bondat d'ajust obtinguda, i la simplicitat de l'estructura matemàtica del model. A partir del model de funció de transferència múltiple estimat, triat com el més adequat per a aquest tipus de processos, es desenvolupa el controlador DMC (Dynamic Matrix Control), un algorisme de control automàtic que pertany a la família del Control Predictiu basat en Models (Model Predictive Control, MPC). Es presenta un mètode de sintonitzat òptim del controlador que permeta maximitzar el seu rendiment, aplicant disseny d'experiments 2k-p. Finalment, s'ha desenvolupat un sistema de control integrat MESPC (Multivariate Engineering Statistical Process Control). Per a implementar la component de monitoratge d'aquest sistema integrat s'han usat mètodes de control estadístic multivariants de processos basats en tècniques de projecció en estructures latents (Latent structures based-Multivariate Statistical Process Control). Aquest mòdul de monitoratge s'ha dissenyat perquè actue com a supervisor tant del procés com del controlador DMC. Per a açò, s'ha estimat un model NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el qual han intervingut variables relacionades tant amb el procés, com amb la qualitat, totes derivades de la component del control automàtic. A partir d'aquest model s'han derivat els gràfics i DModX. S'ha avaluat el funcionament del sistema MESPC, sotmetent-lo a fallades potencials o causes especials de / Barceló Cerdá, S. (2016). Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63442 / TESIS
9

Aplicación de métodos estadísticos multivariantes para la modelación y la monitorización de un reactor discontinuo secuencial para el tratamiento de aguas residuales

Aguado García, Daniel 06 May 2008 (has links)
Como consecuencia del incremento de los problemas de eutrofización en ríos, lagos y costas, se ha producido en las últimas décadas un notable aumento del interés por la eliminación de nutrientes en las aguas residuales previamente a su vertido en los sistemas naturales. Inicialmente, la eliminación de la materia orgánica y el nitrógeno presente en el agua residual se realizaba por medio de procesos biológicos mientras que el fósforo se eliminaba mediante procesos químicos. Sin embargo, las ventajas que presenta la eliminación biológica de fósforo han contribuido a que gradualmente este proceso haya sido implantado cada vez en más estaciones depuradoras de aguas residuales (EDARs). El control de un proceso tan complejo como es el tratamiento de las aguas residuales con eliminación biológica de fósforo, exige conocer las variables de calidad que definen la eficacia del mismo (concentración de ortofosfatos, de amonio, demanda química de oxígeno, ...). Los métodos existentes para la medición de estas variables en tiempo real suponen fuertes inversiones y elevados costes de mantenimiento. Por otro lado, existen otras variables (variables de proceso: pH, conductividad, ...) que se pueden medir en tiempo real por medio de sensores robustos, de bajo coste y que requieren poco mantenimiento, pero que no suministran de forma directa información del funcionamiento del proceso. El elevado número de variables de proceso que actualmente se registran en tiempo real en EDARs modernas, hace necesaria la utilización de técnicas que permitan extraer la información contenida en la gran cantidad de datos registrados. El objetivo principal de la presente tesis ha sido estudiar las posibilidades de utilización de las variables de proceso para obtener información acerca de la evolución de las variables de calidad, así como sobre la evolución del proceso a lo largo del tiempo, mediante la aplicación de métodos estadísticos multivariantes. De esta forma, se pretende detectar cualquier ano / Aguado García, D. (2005). Aplicación de métodos estadísticos multivariantes para la modelación y la monitorización de un reactor discontinuo secuencial para el tratamiento de aguas residuales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1910 / Palancia

Page generated in 0.4785 seconds