Spelling suggestions: "subject:"estadística"" "subject:"estatistica""
51 |
Statistical Methods Development for the Multiomic Systems BiologyUgidos Guerrero, Manuel 28 April 2023 (has links)
[ES] La investigación en Biología de Sistemas se ha expandido en los últimos años. El análisis simultáneo de diferentes tipos de datos ómicos permite el estudio de las conexiones y relaciones entre los diferentes niveles de organización celular. La presente tesis doctoral tiene como objetivo desarrollar y aplicar estrategias de integración multiómica al campo de la biología de sistemas.
El elevado coste de las tecnologías ómicas, dificulta que los laboratorios puedan abordar un estudio multiómico completo. No obstante, la gran disponibilidad de datos ómicos en repositorios públicos, permite el uso de estos datos ya generados. Desafortunadamente, la combinación de datos ómicos provenientes de diferentes orígenes, da lugar a la aparición de un ruido no deseado en los datos, el efecto lote. El efecto lote impide el correcto análisis conjunto de los datos y es necesario el uso de los llamados Algoritmos de Corrección de Efecto Lote para eliminarlo. En la actualidad, existe un gran número de éstos algoritmos que se basan en diferentes modelos estadísticos. Sin embargo, los métodos existentes no están pensados para los diseños multiómicos ya que solo permiten la corrección de un mismo tipo de ómica que debe haber sido medida en todos los lotes. Por ello desarrollamos la herramienta MultiBaC basada en la regresión PLS y modelos ANOVA-SCA, que permite la corrección del efecto lote en diseños multiómicos, permitiendo la corrección de datos que no hayan sido medidos en todos los lotes. En este trabajo, MultiBaC fué validado y evaluado en diferentes conjuntos de datos, además presentamos MultiBaC como paquete de R para facilitar su uso.
La mayoría de métodos existentes de integración multiómica son métodos multivariantes basados en el análisis del espacio latente. Estos métodos se conocen como ``dirigidos por datos'', y se basan en la búsqueda de correlaciones para determinar las relaciones entre las variables. Estos métodos necesitan de gran cantidad de observaciones o muestras para poder encontrar correlaciones significativas. Lamentablemente, en el mundo de la biología molecular, los conjuntos de datos con un gran número de muestras no son muy habituales, debido al elevado coste de generación de los datos. Como alternativa a los métodos dirigidos por datos, algunas estrategias de integración multiómicas se basan en métodos ``dirigidos por modelos''. Estos métodos pueden ajustarse con un menor número de observaciones y son muy útiles para encontrar relaciones mecanísticas entre los componentes celulares. Los métodos dirigidos por modelos necesitan de una información a priori, el modelo, que normalmente es un modelo metabólico del organismo estudiado. Actualmente, sólo transcriptómica y metabolómica cuantitativa, han sido los dos tipos de dato ómico que se han integrado con éxito usando métodos dirigidos por modelos.Sin embargo, la metabolómica cuantitativa no está muy extendida y la mayoría de laboratorios generan metabolómica no cuantitativa, la cuál no puede integrarse con los métodos actuales. Para contribuir en esta cuestión, desarrollamos MAMBA, una herramienta de integración multiómica dirigida por modelos y basada en métodología de optimización matemática, que es capaz de analizar conjuntamente metabolómica no cuantitativa con otro tipo de ómica asociada a genes, como por ejemplo la trascriptómica. MAMBA fue comparado con otros métodos existentes en cuanto a la capacidad de predcción de metabolitos y fué aplicado al conjunto interno de datos multiómicos. Este conjunto de datos multiómicos fue generado dentro del proyecto PROMETEO, en el cuál está enmarcada esta tesis. MAMBA demostró capturar la biología conocida sobre nuestro diseño experimental, además de ser útil para derivar nuevas observaciones e hipótesis biológicas.
En conjunto, esta tesis presenta herramientas útiles para el campo de la biología de sistemas, y que cubren tanto el preprocesado de datos multiómicos como su posterior análisis estadístico integrativo. / [CA] La investigació en Biologia de Sistemes s'ha expandit els darrers. L'anàlisi simultània de diferents tipus de dades òmiques permet l'estudi de les connexions i les relacions entre els diferents nivells d'organització cel·lular. Aquesta tesi doctoral té com a objectiu desenvolupar i aplicar estratègies dintegració multiòmica al camp de la biologia de sistemes.
L'elevat cost de les tecnologies òmiques dificulta que els laboratoris puguin abordar un estudi multiòmic complet. Això no obstant, la gran disponibilitat de dades òmiques en repositoris públics permet l'ús d'aquestes dades ja generades. Malauradament, la combinació de dades òmiques provinents de diferents orígens, dóna lloc a l'aparició d'un soroll no desitjat en les dades, l'efecte lot. L'efecte lot impedeix la correcta anàlisi conjunta de les dades i cal utilitzar els anomenats algorismes de correcció d'Efecte lot per eliminar-lo. Actualment hi ha un gran nombre d'aquests algorismes que corregeixen l'efecte lot que es basen en diferents models estadístics. Tot i això, els mètodes existents no estan pensats per als dissenys multiòmics ja que només permeten la correcció d'un mateix tipus de dada òmica que ha d'haver estat mesurada en tots els lots. Per això desenvolupem la nostra eina MultiBaC basada en la regressió PLS i models ANOVA-SCA, que pot corregir l'efecte lot en dissenys multiòmics, permetent la correcció de dades que no hagin estat mesurades a tots els lots. En aquest treball, MultiBaC ha sigut validat i avaluat en diferents conjunts de dades, a més a més, presentem MultiBaC com a paquet de R per facilitar l'ús de la nostra eina.
La majoria de mètodes d'integració multiòmica existents són mètodes multivariants basats en l'anàlisi de l'espai latent. Aquests mètodes es coneixen com a "dirigits per dades", i es basen en la cerca de correlacions per determinar les relacions entre les diferents variables. Els mètodes dirigits per dades necessiten gran quantitat d'observacions o mostres per poder trobar correlacions significatives entre les variables. Lamentablement, al món de la biologia molecular, els conjunts de dades amb un gran nombre de mostres no són molt habituals, degut a l'elevat cost de generació de les dades òmiques. Com a alternativa als mètodes dirigits per dades, algunes estratègies d'integració multiòmiques es basen en mètodes "dirigits per models". Aquests mètodes poden ajustar-se amb un nombre menor d'observacions i són molt útils per trobar relacions mecanístiques entre els components cel·lulars. Tot i això, els mètodes dirigits per models necessiten una informació a priori, el model, que normalment és un model metabòlic de l'organisme estudiat. Actualment, únicament transcriptòmica i metabolòmica quantitativa, han estat els dos tipus de dada òmica que s'han integrat amb èxit usant mètodes dirigits per models. No obstant això, la metabolòmica quantitativa no està gaire estesa i la majoria de laboratoris generen metabolòmica no quantitativa, les quals no es poden integrar amb els mètodes actuals. Per contribuir en aquesta qüestió, hem desenvolupat MAMBA, una eina d'integració multiòmica dirigida per models i basada en la metodologia d'optimització matemàtica, que és capaç d'analitzar conjuntament metabolòmica no quantitativa amb un altre tipus d'òmica associada a gens, com per exemple la trascriptòmica. MAMBA va ser comparat amb altres mètodes existents quant a la capacitat de predcció de metabòlits i va ser aplicat al conjunt intern de dades multiòmiques. Aquest conjunt de dades multiòmiques va ser generat dins del projecte PROMETEO, en el qual està emmarcada aquesta tesi. Es demostra que MAMBA capturar la biologia coneguda sobre el nostre disseny experimental, a més de ser útil per derivar noves observacions i hipòtesis biològiques.
En conjunt, aquesta tesi presenta eines útils per al camp de la biologia de sistemes, i que cobreixen tant el preprocessament de dades multiòmiques com la seua posterior anàlisi estadística integrativa. / [EN] Systems Biology research has expanded over the last years together with the development of omic technologies. The combination and simultaneous analysis of different kind of omic data allows the study of the connections and relationships between different cellular layers. Indeed, multiomic integration strategies provides a key source of knowledge about the cell as a system. The present Ph.D. thesis aims to study, develop and apply multiomic integration approaches to the field of systems biology.
The still high cost of omics technologies makes it difficult for most laboratories to afford a complete multiomic study. However, the wide availability of omic data in public repositories allows the use of these already generated data. Unfortunately, the combination of omic data from different sources provokes the appearance of unwanted noise in data, known as batch effect. Batch effect impairs the correct integrative analysis of the data. Therefore, the use of so-called Batch Effect Correction Algorithms is necessary. As of today, there is a large number of such algorithms based on different statistical models and methods that correct batch effect and are part of the data pre-processing steps. However, the existing methods are not intended for multi-omics designs as they only allow the correction of the same type of omic data that must be measured across all batches. For this reason, we developed MultiBaC algorithm, which removes batch effect in multiomic designs, allowing the correction of data that are not measured across all batches. MultiBaC is based on PLS regression and ANOVA-SCA models and was validated and evaluated on different datasets. We also present MultiBaC as an R package to facilitate the use of this tool.
Most existing multiomic integration approaches are multivariate methods based on latent space analysis. These methods are known as data-driven as they are based on the search for correlations to determine the relationships between the different variables. Data-driven methods require a large number of observations or samples to find robust and/or significant correlations among features. Unfortunately, in the molecular biology field, data sets with a large number of samples are not very common, again due to the high cost of generating omic data. As an alternative to data-driven methods, some multiomic integration strategies are based on model-driven approaches. These methods can be fitted with a smaller number of observations and are very useful for finding mechanistic relationships between different cellular components. However, model-driven methods require a priori information, which is usually a metabolic model of the organism under study. Currently, only transcriptomics and quantitative metabolomics have been successfully integrated using model-driven methods. Nonetheless, quantitative metabolomics is not very widespread and most laboratories generate non-quantitative or semi-quantitative metabolomics, which cannot be integrated with current methods. To address this issue, we developed MAMBA, a model-driven multiomic integration method that relies on mathematical optimization problems and is able to jointly analyze non-quantitative or semi-quantitative metabolomics with other types of gene-centric omic data, such as transcriptomics. MAMBA was compared to other existing methods in terms of metabolite prediction accuracy and was applied to a multiomic dataset generated within the PROMETEO project, in which this thesis is framed. MAMBA proved to capture the known biology of our experimental design and was useful for deriving new findings and biological hypotheses.
Altogether, this thesis presents useful tools for the field of systems biology, covering both the pre-processing of multiomic datasets and their subsequent statistical integrative analysis. / Ugidos Guerrero, M. (2023). Statistical Methods Development for the Multiomic Systems Biology [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193031
|
52 |
Arabic Text Recognition and Machine TranslationAlkhoury, Ihab 13 July 2015 (has links)
[EN] Research on Arabic Handwritten Text Recognition (HTR) and Arabic-English Machine Translation (MT) has been usually approached as two independent areas of study. However, the idea of creating one system that combines both areas together, in order to generate English translation out of images containing Arabic text, is still a very challenging task. This process can be interpreted as the translation of Arabic images. In this thesis, we propose a system that recognizes Arabic handwritten text images, and translates the recognized text into English. This system is built from the combination of an HTR system and an MT system.
Regarding the HTR system, our work focuses on the use of Bernoulli Hidden Markov Models (BHMMs). BHMMs had proven to work very well with Latin script. Indeed, empirical results based on it were reported on well-known corpora, such as IAM and RIMES. In this thesis, these results are extended to Arabic script, in particular, to the well-known IfN/ENIT and NIST OpenHaRT databases for Arabic handwritten text.
The need for transcribing Arabic text is not only limited to handwritten text, but also to printed text. Arabic printed text might be considered as a simple form of handwritten text version. Thus, for this kind of text, we also propose Bernoulli HMMs. In addition, we propose to compare BHMMs with state-of-the-art technology based on neural networks.
A key idea that has proven to be very effective in this application of Bernoulli HMMs is the use of a sliding window of adequate width for feature extraction. This idea has allowed us to obtain very competitive results in the recognition of both Arabic handwriting and printed text. Indeed, a system based on it ranked first at the ICDAR 2011 Arabic recognition competition on the Arabic Printed Text Image (APTI) database. Moreover, this idea has been refined by using repositioning techniques for extracted windows, leading to further improvements in Arabic text recognition.
In the case of handwritten text, this refinement improved our system which ranked first at the ICFHR 2010 Arabic handwriting recognition competition on IfN/ENIT. In the case of printed text, this refinement led to an improved system which ranked second at the ICDAR 2013 Competition on Multi-font and Multi-size Digitally Represented Arabic Text on APTI. Furthermore, this refinement was used with neural networks-based technology, which led to state-of-the-art results.
For machine translation, the system was based on the combination of three state-of-the-art statistical models: the standard phrase-based models, the hierarchical phrase-based models, and the N-gram phrase-based models. This combination was done using the Recognizer Output Voting Error Reduction (ROVER) method. Finally, we propose three methods of combining HTR and MT to develop an Arabic image translation system. The system was evaluated on the NIST OpenHaRT database, where competitive results were obtained. / [ES] El reconocimiento de texto manuscrito (HTR) en árabe y la traducción automática (MT) del árabe al inglés se han tratado habitualmente como dos áreas de estudio independientes. De hecho, la idea de crear un sistema que combine las dos áreas, que directamente genere texto en inglés a partir de imágenes que contienen texto en árabe, sigue siendo una tarea difícil. Este proceso se puede interpretar como la traducción de imágenes de texto en árabe. En esta tesis, se propone un sistema que reconoce las imágenes de texto manuscrito en árabe, y que traduce el texto reconocido al inglés. Este sistema está construido a partir de la combinación de un sistema HTR y un sistema MT.
En cuanto al sistema HTR, nuestro trabajo se enfoca en el uso de los Bernoulli Hidden Markov Models (BHMMs). Los modelos BHMMs ya han sido probados anteriormente en tareas con alfabeto latino obteniendo buenos resultados. De hecho, existen resultados empíricos publicados usando corpus conocidos, tales como IAM o RIMES. En esta tesis, estos resultados se han extendido al texto manuscrito en árabe, en particular, a las bases de datos IfN/ENIT y NIST OpenHaRT.
En aplicaciones reales, la transcripción del texto en árabe no se limita únicamente al texto manuscrito, sino también al texto impreso. El texto impreso se puede interpretar como una forma simplificada de texto manuscrito. Por lo tanto, para este tipo de texto, también proponemos el uso de modelos BHMMs. Además, estos modelos se han comparado con tecnología del estado del arte basada en redes neuronales.
Una idea clave que ha demostrado ser muy eficaz en la aplicación de modelos BHMMs es el uso de una ventana deslizante (sliding window) de anchura adecuada durante la extracción de características. Esta idea ha permitido obtener resultados muy competitivos tanto en el reconocimiento de texto manuscrito en árabe como en el de texto impreso. De hecho, un sistema basado en este tipo de extracción de características quedó en la primera posición en el concurso ICDAR 2011 Arabic recognition competition usando la base de datos Arabic Printed Text Image (APTI). Además, esta idea se ha perfeccionado mediante el uso de técnicas de reposicionamiento aplicadas a las ventanas extraídas, dando lugar a nuevas mejoras en el reconocimiento de texto árabe.
En el caso de texto manuscrito, este refinamiento ha conseguido mejorar el sistema que ocupó el primer lugar en el concurso ICFHR 2010 Arabic handwriting recognition competition usando IfN/ENIT. En el caso del texto impreso, este refinamiento condujo a un sistema mejor que ocupó el segundo lugar en el concurso ICDAR 2013 Competition on Multi-font and Multi-size Digitally Represented Arabic Text en el que se usaba APTI. Por otro lado, esta técnica se ha evaluado también en tecnología basada en redes neuronales, lo que ha llevado a resultados del estado del arte.
Respecto a la traducción automática, el sistema se ha basado en la combinación de tres tipos de modelos estadísticos del estado del arte: los modelos standard phrase-based, los modelos hierarchical phrase-based y los modelos N-gram phrase-based. Esta combinación se hizo utilizando el método Recognizer Output Voting Error Reduction (ROVER). Por último, se han propuesto tres métodos para combinar los sistemas HTR y MT con el fin de desarrollar un sistema de traducción de imágenes de texto árabe a inglés. El sistema se ha evaluado sobre la base de datos NIST OpenHaRT, donde se han obtenido resultados competitivos. / [CA] El reconeixement de text manuscrit (HTR) en àrab i la traducció automàtica (MT) de l'àrab a l'anglès s'han tractat habitualment com dues àrees d'estudi independents. De fet, la idea de crear un sistema que combine les dues àrees, que directament genere text en anglès a partir d'imatges que contenen text en àrab, continua sent una tasca difícil. Aquest procés es pot interpretar com la traducció d'imatges de text en àrab. En aquesta tesi, es proposa un sistema que reconeix les imatges de text manuscrit en àrab, i que tradueix el text reconegut a l'anglès. Aquest sistema està construït a partir de la combinació d'un sistema HTR i d'un sistema MT.
Pel que fa al sistema HTR, el nostre treball s'enfoca en l'ús dels Bernoulli Hidden Markov Models (BHMMs). Els models BHMMs ja han estat provats anteriorment en tasques amb alfabet llatí obtenint bons resultats. De fet, existeixen resultats empírics publicats emprant corpus coneguts, tals com IAM o RIMES. En aquesta tesi, aquests resultats s'han estès a la escriptura manuscrita en àrab, en particular, a les bases de dades IfN/ENIT i NIST OpenHaRT.
En aplicacions reals, la transcripció de text en àrab no es limita únicament al text manuscrit, sinó també al text imprès. El text imprès es pot interpretar com una forma simplificada de text manuscrit. Per tant, per a aquest tipus de text, també proposem l'ús de models BHMMs. A més a més, aquests models s'han comparat amb tecnologia de l'estat de l'art basada en xarxes neuronals.
Una idea clau que ha demostrat ser molt eficaç en l'aplicació de models BHMMs és l'ús d'una finestra lliscant (sliding window) d'amplària adequada durant l'extracció de característiques. Aquesta idea ha permès obtenir resultats molt competitius tant en el reconeixement de text àrab manuscrit com en el de text imprès. De fet, un sistema basat en aquest tipus d'extracció de característiques va quedar en primera posició en el concurs ICDAR 2011 Arabic recognition competition emprant la base de dades Arabic Printed Text Image (APTI).
A més a més, aquesta idea s'ha perfeccionat mitjançant l'ús de tècniques de reposicionament aplicades a les finestres extretes, donant lloc a noves millores en el reconeixement de text en àrab. En el cas de text manuscrit, aquest refinament ha aconseguit millorar el sistema que va ocupar el primer lloc en el concurs ICFHR 2010 Arabic handwriting recognition competition usant IfN/ENIT. En el cas del text imprès, aquest refinament va conduir a un sistema millor que va ocupar el segon lloc en el concurs ICDAR 2013 Competition on Multi-font and Multi-size Digitally Represented Arabic Text en el qual s'usava APTI. D'altra banda, aquesta tècnica s'ha avaluat també en tecnologia basada en xarxes neuronals, el que ha portat a resultats de l'estat de l'art.
Respecte a la traducció automàtica, el sistema s'ha basat en la combinació de tres tipus de models estadístics de l'estat de l'art: els models standard phrase-based, els models hierarchical phrase-based i els models N-gram phrase-based. Aquesta combinació es va fer utilitzant el mètode Recognizer Output Voting Errada Reduction (ROVER). Finalment, s'han proposat tres mètodes per combinar els sistemes HTR i MT amb la finalitat de desenvolupar un sistema de traducció d'imatges de text àrab a anglès. El sistema s'ha avaluat sobre la base de dades NIST OpenHaRT, on s'han obtingut resultats competitius. / Alkhoury, I. (2015). Arabic Text Recognition and Machine Translation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/53029
|
53 |
Inteligencia computacional en la programación de la producción con recursos adicionalesAlfaro Fernández, Pedro 26 October 2023 (has links)
[ES] En esta Tesis Doctoral se aborda el problema del taller de flujo de permutación considerando recursos adicionales renovables, que es una versión más realista del clásico problema de taller de flujo de permutación, muy estudiado en la literatura. La inclusión de los recursos ayuda a acercar el mundo académico-científico al mundo real de la industria. Se ha realizado una completa revisión bibliográfica que no se ha limitado a problemas del taller de flujo, sino que han revisado problemas similares del ámbito de scheduling que consideren recursos. En esta revisión, no se han encontrado en la literatura artículos para el problema concreto que se estudia en esta tesis. Por ello, la aportación principal de esta Tesis Doctoral es el estudio por primera vez de este problema y la propuesta y adaptación de métodos para su resolución. Inicialmente, el problema se modeliza a través de un modelo de programación lineal entera mixta (MILP). Dada la complejidad del problema, el MILP es capaz de resolver instancias de un tamaño muy pequeño. Por ello, es necesario adaptar, diseñar e implementar heurísticas constructivas y metaheurísticas para obtener buenas soluciones en un tiempo de computación razonable. Para evaluar la eficacia y eficiencia de los métodos propuestos, se generan instancias de problemas partiendo de los conjuntos más utilizados en la literatura para el taller de flujo de permutación. Se utilizan estas instancias propuestas tanto para calibrar los distintos métodos como para evaluar su rendimiento a través de experimentos computacionales masivos. Los experimentos muestran que las heurísticas propuestas son métodos sencillos que consiguen soluciones factibles de una forma muy rápida. Para mejorar las soluciones obtenidas con las heurísticas y facilitar el movimiento a otros espacios de soluciones, se proponen tres metaheurísticas: un método basado en búsqueda local iterativa (ILS), un método voraz iterativo (IG) y un algoritmo genético con búsqueda local (HGA). Todos ellos utilizan las heurísticas propuestas más eficaces como solución o soluciones iniciales. Las metaheurísticas obtienen las mejores soluciones utilizando tiempos de computación razonables, incluso para las instancias de mayor tamaño. Todos los métodos han sido implementados dentro de la plataforma FACOP (Framework for Applied Combinatorial Optimization Problems). Dicha plataforma es capaz de incorporar nuevos algoritmos de optimización para problemas de investigación operativa relacionados con la toma de decisiones de las organizaciones y está diseñada para abordar casos reales en empresas. El incorporar en esta plataforma todas las metodologías propuestas en esta Tesis Doctoral, acerca el mundo académico al mundo empresarial. / [CA] En aquesta Tesi Doctoral s'aborda el problema del taller de flux de permutació considerant recursos addicionals renovables, que és una versió més realista del clàssic problema de taller de flux de permutació, molt estudiat a la literatura. La inclusió dels recursos ajuda a apropar el món acadèmic-científic al món real de la indústria. S'ha realitzat una revisió bibliogràfica completa que no s'ha limitat a problemes del taller de flux, sinó que ha revisat problemes similars de l'àmbit de scheduling que considerin recursos. En aquesta revisió, no s'ha trobat a la literatura articles per al problema concret que s'estudia en aquesta tesi. Per això, l'aportació principal d'aquesta Tesi Doctoral és l'estudi per primera vegada d'aquest problema i la proposta i l'adaptació de mètodes per resoldre'ls. Inicialment, el problema es modelitza mitjançant un model de programació lineal sencera mixta (MILP). Donada la complexitat del problema, el MILP és capaç de resoldre instàncies d'un tamany molt petita. Per això, cal adaptar, dissenyar i implementar heurístiques constructives i metaheurístiques per obtenir bones solucions en un temps de computació raonable. Per avaluar l'eficàcia i l'eficiència dels mètodes proposats, es generen instàncies de problemes partint dels conjunts més utilitzats a la literatura per al taller de flux de permutació. S'utilitzen aquestes instàncies proposades tant per calibrar els diferents mètodes com per avaluar-ne el rendiment a través d'experiments computacionals massius. Els experiments mostren que les heurístiques proposades són mètodes senzills que aconsegueixen solucions factibles de manera molt ràpida. Per millorar les solucions obtingudes amb les heurístiques i facilitar el moviment a altres espais de solucions, es proposen tres metaheurístiques: un mètode basat en cerca local iterativa (ILS), un mètode voraç iteratiu (IG) i un algorisme genètic híbrid (HGA). Tots ells utilitzen les heurístiques proposades més eficaces com a solució o solucions inicials. Les metaheurístiques obtenen les millors solucions utilitzant temps de computació raonables, fins i tot per a les instàncies més grans. Tots els mètodes han estat implementats dins de la plataforma FACOP (Framework for Applied Combinatorial Optimization Problems). Aquesta plataforma és capaç d'incorporar nous algorismes d'optimització per a problemes de recerca operativa relacionats amb la presa de decisions de les organitzacions i està dissenyada per abordar casos reals a empreses. El fet d'incorporar en aquesta plataforma totes les metodologies proposades en aquesta Tesi Doctoral, apropa el món acadèmic al món empresarial. / [EN] In this Doctoral Thesis, the permutation flowshop problem is addressed considering additional renewable resources, which is a more realistic version of the classic permutation flowshop problem, widely studied in the literature. The inclusion of resources helps to bring the academic-scientific world closer to the real world of industry. A complete bibliographic review has been carried out that has not been limited to flow shop problems, but has reviewed similar problems in the scheduling field that consider resources. In this review, no articles have been found in the literature for the specific problem studied in this thesis. Therefore, the main contribution of this Doctoral Thesis is the study for the first time of this problem and the proposal and adaptation of methods for its resolution. Initially, the problem is modeled through a mixed integer linear programming (MILP) model. Given the complexity of the problem, the MILP is capable of solving very small instances. Therefore, it is necessary to adapt, design and implement constructive heuristics and metaheuristics to obtain good solutions in a reasonable computation time. In order to evaluate the effectiveness and efficiency of the proposed methods, problem instances are generated starting from the sets most used in the literature for the permutation flowshop. These proposed instances are used both to calibrate the different methods and to evaluate their performance through massive computational experiments. Experiments show that proposed heuristics are simple methods that achieve feasible solutions very quickly. To improve the solutions obtained with the heuristics and facilitate movement to other solution spaces, three metaheuristics are proposed: a method based on iterated local search (ILS), an iterative greedy method (IG) and a hybrid genetic algorithm (HGA). All of them use the most effective proposed heuristics as initial solution or solutions. Metaheuristics get the best solutions using reasonable computation times, even for the largest instances. All the methods have been implemented within the FACOP platform (Framework for Applied Combinatorial Optimization Problems). Said platform is capable of incorporating new optimization algorithms for operational research problems related to decision-making in organizations and it is designed to address real cases in companies. Incorporating in this platform all the methodologies proposed in this Doctoral Thesis, brings the academic world closer to the business world. / Alfaro Fernández, P. (2023). Inteligencia computacional en la programación de la producción con recursos adicionales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/198891
|
54 |
Mejoras a la implementación del gráfico de control CEV para procesos con observaciones censuradas. Aportaciones, mediciones de propiedades y potencia de predicciónNeira Rueda, Javier Orlando 17 March 2024 (has links)
[ES] El proceso de estimación de parámetros para caracterizar una población mediante algoritmos está en constante desarrollo y perfeccionamiento. Los últimos años demuestran que la toma de decisiones basada en datos es compleja cuando existe incertidumbre generada por la censura estadística. La presente tesis evalúa el efecto de la censura estadística en una variable aleatoria normalmente distribuida común en muchos procesos. Posteriormente, las propiedades de estimación de los parámetros se caracterizarán con el algoritmo de máximo verosimilitud llamado valor condicional esperado CEV (Siglas en ingles), utilizando diferentes porcentajes de censura y tamaños de muestra. Posteriormente, se sistematiza y caracteriza el proceso de implementación del gráfico de control para supervisar tales variables aleatorias, proponiendo acciones de mejora y haciendo observaciones en el proceso.
Finalmente, esta tesis resalta la importancia actual de tomar de decisiones basadas en algoritmos de estimación de datos con presencia de algún tipo de censura estadística, que a su vez se interpreta como una pérdida de información. / [CA] El procés d'estimació de paràmetres per a caracteritzar una població mitjançant algorismes està en constant desenvolupament i perfeccionament. Els últims anys demostren que la presa de decisions basada en dades és complexa quan existeix incertesa per la censura estadística. La present tesi avalua l'efecte de la censura estadística en una variable aleatòriament distribuïda comuna en molts processos. Posteriorment, les propietats d'estimació dels paràmetres es caracteritzaran amb l'algorisme de màxima versemblança anomenat valor condicional esperat CEV (Sigles en anglés), utilitzant diferents percentatges de censura i grandària de mostra. Se sistematitza i caracteritza el procés d'implementació del gràfic de control per a supervisar les variables aleatòries, proposant accions de millora i fent observacions posteriors en el procés.
Finalment, aquesta tesi ressalta la importància actual de prendre decisions basades en algorismes d'estimació de dades amb presència d'alguna mena de censura estadística, que al seu torn s'interpreta com una pèrdua d'informació. / [EN] The process of parameter estimation in order to characterize a population using algorithms is in constant development and perfection. Recent years show that data-based decision-making is complex when there is uncertainty generated by statistical censoring. This thesis evaluates the effect of statistical censoring on a normally distributed random variable common to many processes. Subsequently, the estimation properties of the parameters will be characterised with the maximum likelihood algorithm called conditional expected value (CEV), using different censoring percentages and sample sizes. Subsequently, the process of implementing the control chart to monitor such random variables is systematised and characterised, proposing improvement actions and making observations in the process.
Finally, this thesis highlights the current importance of making decisions based on data estimation algorithms with the presence of some kind of statistical censoring, which in turn is interpreted as a loss of information. / Neira Rueda, JO. (2024). Mejoras a la implementación del gráfico de control CEV para procesos con observaciones censuradas. Aportaciones, mediciones de propiedades y potencia de predicción [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203154
|
55 |
Técnicas estadísticas para el control y la mejora de la calidad en el sector textil: aplicación en la manta y la napa termofusionadaMiró Martínez, Pau 07 May 2008 (has links)
El sector textil y las herramientas de Control Estadístico de la Calidad han evolucionado con las distintas revoluciones industriales. El nivel tecnológico de muchas empresas del sector es muy elevado pero en cambio el uso de técnicas Estadísticas es muy reducido, considerándose a menudo de gran dificultad, innecesarias y cuyos costos son elevados. La tesis que se presenta se plantea como objetivo romper con esta forma de pensar y demostrar algunas de las ventajas que puede aportar el uso de la Estadística para tomar decisiones y mejorar la calidad de productos y procesos.
Para alcanzar este objetivo, se hace un breve repaso al grado de utilización de la ciencia en el sector, sobre todo en algunas comarcas de la Comunidad Valenciana en las que se centrarán las propuestas después realizadas. Esta indagación proporciona las claves necesarias para encaminar la investigación hacia dos tipos de productos diferentes, por un lado, los de hogar que son los que tradicionalmente se producen en la zona, y por otro, los técnicos que representan una oportunidad de innovación.
La primera propuesta se realiza con la intención de dotar de mayor valor añadido a los productos tradicionales, mediante la incorporación de un sistema de Control de la Calidad de sus características sensoriales. Utilizando algunas técnicas de Análisis Sensorial se quiere controlar la calidad del artículo en el proceso de producción, así como definir las características sensoriales que lo caractericen y lo pueden distinguir de sus competidores. Esta propuesta se aplica a la manta para cama.
La segunda propuesta quiere facilitar la innovación en materiales técnicos, aportando las herramientas necesarias para la realización de la experimentación de forma sistemática y ordenada, para poder analizar y tomar las decisiones de forma más objetiva y eficiente. Se aplica a aquellos productos técnicos que se realicen mediante la mezcla de diferentes tipos de fibras. El caso estudio consiste en optimizar la Napa obte / Miró Martínez, P. (2005). Técnicas estadísticas para el control y la mejora de la calidad en el sector textil: aplicación en la manta y la napa termofusionada [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1991
|
56 |
Propuesta de mejora de los gráficos de control por atributos mediante la metodología de DaudinPérez Bernabeu, Elena 15 December 2008 (has links)
Esta Tesis Doctoral se centra en la propuesta de mejora del gráfico por atributos u. Se aplica a este gráfico el muestreo doble propuesto por J.J. Daudin (1992) para el gráfico de la media. Se trata de un caso particular en dos etapas del muestreo múltiple, y el gráfico propuesto recibe el nombre de DS-u.
El objetivo de esta Tesis Doctoral es conocer cómo se comporta la metodología de Daudin aplicada al gráfico por atributos u, y si mejora la potencia que ofrece el gráfico u clásico. Para ello se ha programado una aplicación empleando algoritmos genéticos con la cual se han realizado simulaciones que han permitido la obtención de conclusiones. Se ha conseguido mejorar para algunos casos concretos. / Pérez Bernabeu, E. (2008). Propuesta de mejora de los gráficos de control por atributos mediante la metodología de Daudin [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3786
|
57 |
Identificación y priorización de factores críticos para implantar buenas prácticas agrícolas en productores de café y frutas en el departamento del Huila en ColombiaGutiérrez Guzmán, Nelson 15 December 2008 (has links)
El presente trabajo comprende dos grandes secciones; en la primera sección se realiza la identificación los factores críticos para implantar un programa de BPA en productores de café y frutas en el departamento del Huila en Colombia, utilizando un análisis de componentes principales (ACP) sobre los resultados de la aplicación de dos instrumentos de evaluación con estructura definida: el instrumento Starbucks C.A.F.E. practices - pequeños caficultores para el caso de los productores de café y el instrumento EUREPGAP V2.1 Oct.2004 - Checklist/Listado de verificación para frutas y Hortalizas, aplicado a los productores de fruta. La segunda parte del estudio fue considerada como la solución de un problema complejo para establecer el orden de prioridades de los factores identificados en el apartado anterior, sobre la implantación del protocolo de buenas practicas agrícolas, se resolvió mediante la utilización de una técnica de decisión multicriterio, utilizando específicamente un proceso de análisis jerárquico (AHP); así mismo, se definió el orden mas adecuado para la implementación de las alternativas de solución que permitirán superar las barreras impuestas por los factores críticos. / Gutiérrez Guzmán, N. (2008). Identificación y priorización de factores críticos para implantar buenas prácticas agrícolas en productores de café y frutas en el departamento del Huila en Colombia [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3790
|
58 |
Análisis de supervivencia en fiabilidad. Predicción en condiciones de alta censura y truncamiento: el caso de las redes de suministro de agua potableSolano Hurtado, Hernando 15 December 2008 (has links)
El principal objetivo de esta investigación, consiste en evaluar el patrón de supervivencia de las redes de suministro de agua potable y analizar el efecto de los diferentes factores que puedan influir en la supervivencia de las mismas.
En el primer aspecto, la amplia variedad de métodos aquí considerados (paramétricos, no-paramétricos, y semi-paramétricos), retroalimentados por una base de datos, que se caracteriza por su breve historial de fallos con una alta censura y truncamiento en la información, reproducen estimaciones de la función de supervivencia consistentes, que otros métodos, como las tablas de vida, confirman plenamente.
En el segundo aspecto, los principales resultados obtenidos se relacionan con los cambios en el riesgo de fallo en la red, por la influencia casi siempre significativa del material, la presión, la longitud, el diámetro y el tráfico. Importantes diferencias fueron detectadas en todas estas variables, su efecto sobre la tasa de fallo en los conductos es casi siempre significativa, facilitando información de interés para los administradores de estas redes, a fin de avanzar hacia la gestión proactiva de su infraestructura. / Solano Hurtado, H. (2008). Análisis de supervivencia en fiabilidad. Predicción en condiciones de alta censura y truncamiento: el caso de las redes de suministro de agua potable [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3792
|
59 |
Las relaciones Universidad-empresa y su efecto sobre la segunda misión universitariaManjarrés Henríquez, Liney Adriana 04 November 2009 (has links)
La tesis doctoral tiene como objetivo principal evaluar empíricamente el efecto de las relaciones universidad-empresa sobre la segunda misión universitaria. El estudio empírico toma como caso de análisis las dos universidades más importantes de la Comunidad Valenciana - España. Los resultados más relevantes de esta investigación muestran que las actividades de RUE sólo ejercen un efecto positivo cuando están basadas en actividades con alto contenido científico tecnológico y hasta cierto nivel, a partir del cual se experimentan retornos marginales decrecientes del rendimiento científico. Adicionalmente, se encontró que el efecto positivo que ejercen los contratos de I + D sobre la producción científica, está moderado por las características del socio con el que se establecen dichos contratos. En términos generales, los resultados anteriores tienen importantes implicaciones en el diseño de las políticas universitarias. / Manjarrés Henríquez, LA. (2009). Las relaciones Universidad-empresa y su efecto sobre la segunda misión universitaria [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6342
|
60 |
Nuevos algoritmos para el problema de secuenciación en máquinas paralelas no relacionadas y generalizacionesFanjul Peyró, Luis 01 February 2011 (has links)
Para iniciar esta Tesis Doctoral se buscó un problema de producción sencillo
pero de amplia aplicación práctica que permitiera adaptarlo para llegar
a problemas más generales y de más amplia aplicación. Por este motivo, nos
centramos en las máquinas paralelas, y dentro de ellas, en las no relacionadas
dado que son una generalización de los casos de máquinas idénticas y de las
uniformemente relacionadas. Escogimos el objetivo de minimizar el tiempo
máximo de finalización o Cm ax, uno de los más comunes de la literatura. Este
problema tiene la facultad de que, a pesar de su carácter teórico, tiene una
amplia aplicación práctica, como el caso de secuenciar las tareas de los hornos
de cocción cerámicos. Por otra parte se quería ampliar el problema para el
caso en que no se usaran todas las máquinas o no se hicieran todos los trabajos
necesariamente.
Las metas perseguidas son el presentar unos algoritmos sencillos y potentes
para la resolución del problema R//Cm ax, capaces de constituirse en el estado
del arte. Dado que los modernos ordenadores montan casi en su totalidad varios
núcleos en su CPU y los algoritmos se van adaptando a este hecho, también se
ha buscado realizar una adaptación de los algoritmos para su uso en paralelo.
Finalmente, se pone como meta el encontrar métodos eficaces y sencillos para
la resolución de problemas de este tipo en donde no se emplearan todas las
máquinas o no se realizaran todos los trabajos.
En la presente Tesis Doctoral se realizó un amplio estudio de la literatura
existente respecto al problema de máquinas paralelas no relacionadas y se
extrajo el estado del arte, así como un estudio del posible tipo de instancias a
emplear, dado que no existía una grupo de instancias tipo para este problema.
Se presentan cuatro algoritmos iniciales sencillos que mejoran los resultados
del estado del arte en algunos casos y dan mejores resultados de media en el
conjunto total de instancias tratadas. / Fanjul Peyró, L. (2011). Nuevos algoritmos para el problema de secuenciación en máquinas paralelas no relacionadas y generalizaciones [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/9312
|
Page generated in 0.0608 seconds