• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

NUEVAS ESTRATEGIAS DE OPTIMIZACIÓN EN PROCESOS DE PESAJE MULTICABEZAL

Pulido Rojano, Alexander de Jesús 29 May 2017 (has links)
In the last few years, the food packaging industry has experienced a lot of growth. There are many factors that have contributed to this growth and some of them include modern concepts and advancement in technology. Managers of food industry must consider how to maintain profitability in an increasingly competitive market, while providing customers with high quality products and efficient service. Further automation of packing lines can help food companies meet these requirements; for example, multihead weighers used in the multihead weighing processes. Multihead weighing technology has revolutionised the packaging lines and it is used to reduce product and process variability. A multihead weigher consists of various weighing heads or hoppers that ensures that products are weighed very quickly and accurately. This enables the desired amount of product to be determined and packed according to the precise weight (nominal value or target). It can be installed as part of an integrated weighing and packing line or interfaced with existing packing equipment. Moreover, it is ideal for precise and fast weighing of products ranging in size, from granulates to large and bulky products. In this doctoral thesis, it sets out to analyse and compare a set of strategies designed to optimize the packaging process in multihead weighers and minimize the variability in weight of the packed product. We used monoobjective and multiobjective optimization techniques, the variability reduction index, the Taguchi loss function and a statistical analysis, to identify and establish the more accurate strategy in terms of variability in weight of the package. The improvement approach that we propose is practical and it is based on the study of the filling setting of hoppers for find the optimum operational conditions of the multihead weigher. For each strategy, exact algorithms which follow an explicit enumerative strategy or exhaustive search were developed to evaluate the several values of the number of combined hoppers. In the proposed multiobjective approach, the algorithms use an innovative a priori strategy to generate Pareto-optimal solutions and select a subset of hoppers in each packing operation, in such a way that the relative importance of the objectives is dynamically managed and adjusted. Once the packing process has been improved, this is monitored and controlled through the design of a modified control chart. / En los últimos años, la industria del envasado de alimentos ha experimentado un gran crecimiento. Existen muchos factores que han contribuido a este crecimiento y algunos de ellos incluyen conceptos modernos y avances en la tecnología. Los gerentes de la industria alimentaria deben velar por mantener la rentabilidad en un mercado cada vez más competitivo, al tiempo de proporcionar a los clientes productos de alta calidad y un buen servicio. Una mayor automatización de las líneas de envasado puede ayudar a estas empresas a cumplir con los requisitos de calidad y servicio; por ejemplo, las pesadoras multicabezal utilizadas en los procesos de pesaje multicabezal. La tecnología de pesaje multicabezal ha revolucionado las líneas de envasado y se utiliza para reducir la variabilidad de productos y procesos. Una pesadora multicabezal consta de varios cabezales de pesaje o tolvas que garantizan que los productos sean pesados con mucha rapidez y precisión. Esto permite envasar la cantidad deseada de un producto de acuerdo con su peso objetivo (valor nominal). Puede instalarse como parte de una línea integrada de pesaje y envasado o conectarse con equipos de envasado existentes. Además, es ideal para el pesaje preciso y rápido de productos que varían en tamaño, desde granulados a productos grandes y voluminosos. En la presente Tesis Doctoral, se desarrolla un conjunto de estrategias diseñadas para optimizar el proceso de envasado en pesadoras multicabezales y minimizar la variabilidad en el peso del producto envasado. Para esto, se utilizan técnicas de optimización monoobjetivo y multiobjetivo, el índice de reducción de variabilidad, la función de pérdida de Taguchi y un análisis estadístico para identificar y establecer la estrategia que ofrezca el mejor rendimiento en términos de variabilidad en el peso del paquete. El enfoque de mejora que proponemos es práctico y se basa en el estudio del ajuste de llenado de las tolvas para encontrar las condiciones operativas óptimas de la pesadora multicabezal. Para cada estrategia, se desarrollaron algoritmos exactos los cuales siguen una estrategia enumerativa explícita o búsqueda exhaustiva para evaluar distintos valores del número de tolvas combinadas. En el enfoque multiobjetivo propuesto, los algoritmos utilizan una novedosa estrategia a priori para generar soluciones Pareto-óptimas y seleccionar un subconjunto de tolvas en cada operación de envasado, de tal manera que la importancia relativa de los objetivos considerados es dinámicamente gestionada y ajustada. Una vez que el proceso de envasado ha sido mejorado, este se monitorea y controla a través del diseño de un gráfico de control modificado. / En els últims anys, la indústria de l'envasament d'aliments ha experimentat un gran creixement. Existeixen molts factors que han contribuït a aquest creixement i alguns d'ells inclouen conceptes moderns i avanços en la tecnologia. Els gerents de la indústria alimentària han de vetlar per mantenir la rendibilitat en un mercat cada vegada més competitiu, tot proporcionant-hi alhora als clients productes d'alta qualitat i un bon servici. Una major automatització de les línies d'envasament pot ajudar aquestes empreses a complir amb els requisits de qualitat i servici; per exemple, les pesadores multicapçal utilitzades en els processos de pesatge multicapçal. La tecnologia de pesatge multicapçal ha revolucionat les línies d'envasament i s'utilitza per a reduir la variabilitat de productes i processos. Una pesadora multicapçal consta de diversos capçals de pesatge o tremuges que garanteixen que els productes siguen pesats amb molta rapidesa i precisió. Açò permet envasar la quantitat desitjada de producte d'acord amb el seu pes objectiu (valor nominal). Pot instal¿lar-se com a part d'una línia integrada de pesatge i envasament o bé connectar-se amb equips d'envasament existents. A més, és ideal per al pesatge precís i ràpid de productes que varien en grandària, des de granulats fins a productes grans i voluminosos. En la present Tesi Doctoral es presenta un conjunt d'estratègies dissenyades per a optimitzar el procés d'envasament en pesadores multicapçal i minimitzar la variabilitat en el pes del producte envasat. Per a això, s'hi utilitzen tècniques d'optimització monoobjectiu i multiobjectiu, l'índex de reducció de variabilitat, la funció de pèrdua de Taguchi i una anàlisi estadística per identificar i establir l'estratègia que oferesca el millor rendiment en termes de variabilitat en el pes del paquet. L'enfocament de millora que hi proposem és pràctic i es basa en l'estudi de l'ajust d'emplenament de les tremuges per a trobar les condicions operatives òptimes de la pesadora multicapçal. Per a cada estratègia, es van desenvolupar algoritmes exactes, els quals segueixen una estratègia enumerativa explícita o cerca exhaustiva per avaluar diferents valors en el nombre de tremuges combinades. En l'enfocament multiobjectiu proposat, els algoritmes utilitzen una novedosa estratègia a priori per a generar solucions Pareto-òptimes i seleccionar un subconjunt de tremuges en cada operació d'envasament, de tal forma que la importància relativa dels objectius considerats és dinàmicament gestionada i ajustada. Una vegada que el procés d'envasament ha sigut millorat, és així mateix monitoritzat i controlat a través del disseny d'un gràfic de control modificat. / Pulido Rojano, ADJ. (2017). NUEVAS ESTRATEGIAS DE OPTIMIZACIÓN EN PROCESOS DE PESAJE MULTICABEZAL [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/81859 / TESIS
2

Selección de variables y descubrimiento causal a partir de textos de artículos periodísticos

Maisonnave, Mariano 22 October 2021 (has links)
La existencia de relaciones o dependencias estadísticas en los datos (correlaciones) se puede estudiar mediante herramientas estadísticas que se han desarrollado en los últimos dos siglos. Sin embargo, una pregunta tan simple de formular como: “¿Existe un vínculo causal entre estas dos variables correlacionadas?'' presenta un desafío diferente que escapa a las respuestas que pueden brindar herramientas estadísticas clásicas, ya que, como se suele enseñar en todos los cursos de estadística: “correlación no es causalidad''. La necesidad por parte de la comunidad científica de responder preguntas causales (¿El fumar causa cáncer? ¿Este medicamento es efectivo para tratar esta enfermedad?, etc.) generó un esfuerzo para la creación de herramientas formales que permitan descubrir y cuantificar efectos causales. Algunos ejemplos son la técnica basada en la Causalidad de Granger (GC por sus siglas en inglés) y la técnica de descubrimiento de estructuras causales PC (que recibe el nombre por las iniciales de sus autores). Por otro lado, existe un gran interés por parte de la comunidad de procesamiento de lenguaje natural (NLP por sus siglas en inglés) en el descubrimiento de relaciones causales a partir de textos. Sin embargo, la mayoría de los esfuerzos están enfocados en recuperar información causal ya explícita en el texto. Por ejemplo, en la siguiente frase sobre la crisis argentina del 2001: “Sucedió en el marco de una crisis mayor que se extendió entre 1998 y 2002, causada por una larga recesión que disparó una crisis humanitaria'' se tendría por objetivo extraer los dos vínculos causales que relacionan los tres eventos descritos (la recesión, una crisis económica y otra humanitaria). Estos trabajos, si bien tienen por objetivo el descubrimiento causal, utilizan herramientas más cercanas al área de NLP que a las herramientas usuales en la literatura sobre descubrimiento causal (tales como GC o PC). Esta tesis propone un marco de trabajo (framework) en el que, a través de la utilización de herramientas como GC o PC, se plantea como objetivo el descubrimiento causal entre variables extraídas de textos de artículos periodísticos cuya relación causal no necesariamente está explícita en el texto. De este modo se obtiene una red causal, donde cada nodo es una variable relevante y cada arco un vínculo causal. Para alcanzar este objetivo primero se proponen soluciones al desafío de extraer y filtrar variables relevantes a partir de textos. Este problema se resuelve mediante el uso de dos enfoques tomados de NLP: (1) una técnica de pesaje de términos y (2) un modelo de detección de menciones de eventos en curso a partir de textos de artículos periodísticos. Se crea un conjunto de datos utilizando las variables extraídas usando estas herramientas de NLP ((1) y (2)). Este conjunto de datos es usado en el paso posterior de extracción de relaciones causales. Se estudian nueve técnicas de descubrimiento causal, y se lleva a cabo un estudio comparativo de la aplicación de las técnicas en más de sesenta conjuntos de datos sintéticos y en un conjunto de datos real de demanda de energía eléctrica. Finalmente, un caso de uso es presentado donde se aplican las mejores técnicas de descubrimiento causal sobre los conjuntos de datos de variables extraídas de los textos de artículos periodísticos, dando lugar así a una demostración completa de la funcionalidad del framework (extracción de variables de textos y descubrimiento causal a partir de las mismas). Los resultados obtenidos muestran la gran flexibilidad del framework, permitiendo la combinación de variables de diferentes tipos, con diferentes procesos de construcción, posibilitando la extracción causal posterior. Más aún, dando evidencia que información no textual podría ser incorporada al framework (por ejemplo, precios de materias primas, precios de acciones de la bolsa, indicadores socioeconómicos, entre otros). Este framework permitiría a un experto partir de un dominio, que puede ser un conjunto de textos periodísticos sobre algún episodio del mundo real, y obtener de manera automática un conjunto de variables relevantes a ese dominio (de las cuales puede elegir visualizar solo algunas, o todas). Posteriormente, se le mostraría al experto un conjunto de vínculos causales extraídos de manera automática, que vincularía a las diferentes variables relevantes al dominio. El grafo causal resultante (variables y vínculos relevantes a un dominio) puede representar una herramienta de gran interés para permitir a un experto tener una visión procesada y resumida de las interdependencias, permitiéndole un mejor entendimiento del dominio o posibilitando sacar conclusiones o explicaciones sobre eventos que se sucedieron o están sucediendo. Las primeras dos contribuciones de esta tesis están enfocadas en la propuesta de técnicas novedosas de NLP para la etapa de extracción de variables. En esta etapa se propone, primero, una herramienta nueva para pesaje de términos y estimación de puntajes de relevancia de términos asignados por usuarios. Segundo, se propone una tarea de NLP, de detección de eventos en curso (OED por sus siglas en inglés) para ser usados como variables en el framework. Se muestran los resultados de diferentes modelos para la tarea de OED, alcanzando un modelo superador con respecto a modelos existentes para tareas similares. Estas dos contribuciones permitieron la extracción de variables relevantes para ser usadas como nodos del grafo. Finalmente, la tercera contribución principal es la presentación de un análisis comparativo de nueve técnicas de extracción de causalidad y la posterior aplicación de las mejores para un ejemplo de un caso de uso del framework completo. / The existence of statistical relationships or dependencies in the data (correlations) can be studied using well-known statistical tools that have been developed over the last two centuries. However, a question as simple to pose as “Is there a causal link between these two correlated variables?'' entails a whole set of different challenges that escape from the answer that classical statistical tools can provide, since, as is usually taught in statistical courses: “correlation is not causation''. The need by the scientific community to answers to causal questions (such as: “does smoking cause cancer?'' or “is this drug effective in treating this disease?'') generated an effort to create formal tools for detecting and quantifying causal effects. Some examples are the methods based on the Granger Causality (GC) test and the PC causal structure learning algorithm. On the other hand, there is great interest from the natural language processing (NLP) community in discovering causal relationships from texts. However, most efforts are focused on recovering causal information already explicit in the text. For example, in the following sentence about the Argentine crisis of 2001: “It happened in the context of a bigger crisis that lasted between 1998 and 2002, caused by a long recession that triggered a humanitarian crisis'' the goal would be to extract the two causal links that relate the three events described (the recession, an economic crisis, and a humanitarian crisis). In that literature, although the goal is also to detect causal relations, tools closer to the NLP field are used, instead of the usual tools in the literature of causal discovery (such as GC-based techniques or PC). This thesis proposes a framework that aims at performing causal discovery between variables extracted from texts of newspaper articles using tools like GC and PC. In contrast to other approaches, the causal relationships do not need to be explicit in the texts. Using this framework, a causal network is obtained, where each node is a relevant variable and each edge is a causal link. To achieve this goal, the first challenge addressed is to extract and select relevant variables from texts. This is achieved by the use of two NLP approaches: (1) a term weighting technique and (2) a model for detecting ongoing event mentions in news articles. A data set is built using these two types of variables extracted from texts using these two NLP approaches ((1) and (2)). This data set is used in the following stage of causal discovery. Nine causal discovery techniques are analyzed, and a comparative study of the application of these techniques is carried out in sixty-four synthetic data sets and in one real-world electricity demand data set. Finally, a use case is presented where the best causal discovery techniques are applied to the data sets of variables extracted from the texts of newspaper articles, thus giving rise to a complete demonstration of the functionality of the framework (extraction of text variables and causal discovery from them). The results obtained show the great flexibility of the framework, which allows the combination of variables of different types (potentially with different generative processes), enabling the subsequent causal extraction. Furthermore, they provide evidence that non-textual information could be incorporated into the framework (for example, commodity prices, stock prices, and socioeconomic indicators, among others). This framework would allow an expert to start from a domain, which can be defined as a set of newspaper texts about some real-world episode, and automatically obtain a set of variables relevant to that domain (from which the expert could choose to visualize either a subset or the entire set). Subsequently, the expert would be shown a set of causal links extracted automatically, linking the relevant variables of the domain. The resulting causal graph (variables and edges relevant to a domain) can become a tool of great interest for an expert to process and summarize the variables and interdependencies in a domain, allowing a better understanding and making it possible to draw conclusions or find explanations for events that happened or are happening in the domain. The first two contributions of this thesis are focused on the proposal of novel NLP techniques to be applied at the variable extraction stage. First, a new tool for weighing terms and estimating relevance scores of terms assigned by users is proposed. Secondly, an NLP task consisting of the detection of ongoing events (OED) from texts is proposed to use those events as variables in the framework. The results for different instances of the OED task are shown, indicating that the model outperforms state-of-the-art models for similar tasks. These two contributions allow the extraction of relevant variables to be used as nodes of the graph. Finally, the third main contribution is the presentation of a comparative analysis of nine causality extraction techniques and the subsequent application of the best ones on a use case of the complete framework.

Page generated in 0.0661 seconds