• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 33
  • Tagged with
  • 93
  • 93
  • 93
  • 29
  • 23
  • 18
  • 14
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Use of multivariate statistical methods for the analysis of metabolomic data

Hervás Marín, David 12 November 2019 (has links)
[ES] En las últimas décadas los avances tecnológicos han tenido como consecuencia la generación de una creciente cantidad de datos en el campo de la biología y la biomedicina. A día de hoy, las así llamadas tecnologías "ómicas", como la genómica, epigenómica, transcriptómica o metabolómica entre otras, producen bases de datos con cientos, miles o incluso millones de variables. El análisis de datos ómicos presenta una serie de complejidades tanto metodoló-gicas como computacionales que han llevado a una revolución en el desarrollo de nuevos métodos estadísticos específicamente diseñados para tratar con este tipo de datos. A estas complejidades metodológicas hay que añadir que, en la mayor parte de los casos, las restricciones logísticas y/o económicas de los proyectos de investigación suelen conllevar que los tamaños muestrales en estas bases de datos con tantas variables sean muy bajos, lo cual no hace sino empeorar las dificultades de análisis, ya que se tienen muchísimas más variables que observaciones. Entre las técnicas desarrolladas para tratar con este tipo de datos podemos encontrar algunas basadas en la penalización de los coeficientes, como lasso o elastic net, otras basadas en técnicas de proyección sobre estructuras latentes como PCA o PLS y otras basadas en árboles o combinaciones de árboles como random forest. Todas estas técnicas funcionan muy bien sobre distintos datos ómicos presentados en forma de matriz (IxJ). Sin embargo, en ocasiones los datos ómicos pueden estar expandidos, por ejemplo, al tomar medidas repetidas en el tiempo sobre los mismos individuos, encontrándonos con estructuras de datos que ya no son matrices, sino arrays tridimensionales o three-way (IxJxK). En estos casos, la mayoría de las técnicas citadas pierden parte de su aplicabilidad, quedando muy pocas opciones viables para el análisis de este tipo de estructuras de datos. Una de las técnicas que sí es útil para el análisis de estructuras three-way es N-PLS, que permite ajustar modelos predictivos razonablemente precisos, así como interpretarlos mediante distintos gráficos. Sin embargo, relacionado con el problema de la escasez de tamaño muestral relativa al desorbitado número de variables, aparece la necesidad de realizar una selección de variables relacionadas con la variable respuesta. Esto es especialmente cierto en el ámbito de la biología y la biomedicina, ya que no solo se quiere poder predecir lo que va a suceder, sino entender por qué sucede, qué variables están implicadas y, a poder ser, no tener que volver a recoger los cientos de miles de variables para realizar una nueva predicción, sino utilizar unas cuantas, las más importantes, para poder diseñar kits predictivos coste/efectivos de utilidad real. Por ello, el objetivo principal de esta tesis es mejorar las técnicas existentes para el análisis de datos ómicos, específicamente las encaminadas a analizar datos three-way, incorporando la capacidad de selección de variables, mejorando la capacidad predictiva y mejorando la interpretabilidad de los resultados obtenidos. Todo ello se implementará además en un paquete de R completamente documentado, que incluirá todas las funciones necesarias para llevar a cabo análisis completos de datos three-way. El trabajo incluido en esta tesis por tanto, consta de una primera parte teórico-conceptual de desarrollo de la idea del algoritmo, así como su puesta a punto, validación y comprobación de su eficacia; de una segunda parte empírico-práctica de comparación de los resultados del algoritmo con otras metodologías de selección de variables existentes, y de una parte adicional de programación y desarrollo de software en la que se presenta todo el desarrollo del paquete de R, su funcionalidad y capacidades de análisis. El desarrollo y validación de la técnica, así como la publicación del paquete de R, ha permitido ampliar las opciones actuales para el análisis / [CAT] En les últimes dècades els avançaments tecnològics han tingut com a conseqüència la generació d'una creixent quantitat de dades en el camp de la biologia i la biomedicina. A dia d'avui, les anomenades tecnologies "òmiques", com la genòmica, epigenòmica, transcriptòmica o metabolòmica entre altres, produeixen bases de dades amb centenars, milers o fins i tot milions de variables. L'anàlisi de dades 'òmiques' presenta una sèrie de complexitats tant metodolò-giques com computacionals que han portat a una revolució en el desenvolupament de nous mètodes estadístics específicament dissenyats per a tractar amb aquest tipus de dades. A aquestes complexitats metodològiques cal afegir que, en la major part dels casos, les restriccions logístiques i / o econòmiques dels projectes de recerca solen comportar que les magnituts de les mostres en aquestes bases de dades amb tantes variables siguen molt baixes, el que no fa sinó empitjorar les dificultats d'anàlisi, ja que es tenen moltíssimes més variables que observacions Entre les tècniques desenvolupades per a tractar amb aquest tipus de dades podem trobar algunes basades en la penalització dels coeficients, com lasso o elastic net, altres basades en tècniques de projecció sobre estructures latents com PCA o PLS i altres basades en arbres o combinacions d'arbres com random forest. Totes aquestes tècniques funcionen molt bé sobre diferents dades 'òmiques' presentats en forma de matriu (IxJ), però, en ocasions les dades òmiques poden estar expandits, per exemple, cuan ni ha mesures repetides en el temps sobre els mateixos individus, trobant-se amb estructures de dades que ja no són matrius, sinó arrays tridimensionals o three-way (IxJxK). En aquestos casos, la majoria de les tècniques mencionades perden tota o bona part de la seua aplicabilitat, quedant molt poques opcions viables per a l'anàlisi d'aquest tipus d'estructures de dades. Una de les tècniques que sí que és útil per a l'anàlisi d'estructures three-way es N-PLS, que permet ajustar models predictius raonablement precisos, així com interpretar-los mitjançant diferents gràfics. No obstant això, relacionat amb el problema de l'escassetat de mostres relativa al desorbitat nombre de variables, apareix la necessitat de realitzar una selecció de variables relacionades amb la variable resposta. Això és especialment cert en l'àmbit de la biologia i la biomedicina, ja que no només es vol poder predir el que va a succeir, sinó entendre per què passa, quines variables estan implicades i, si pot ser, no haver de tornar a recollir els centenars de milers de variables per realitzar una nova predicció, sinó utilitzar unes quantes, les més importants, per poder dissenyar kits predictius cost / efectius d'utilitat real. Per això, l'objectiu principal d'aquesta tesi és millorar les tècniques existents per a l'anàlisi de dades òmiques, específicament les encaminades a analitzar dades three-way, incorporant la capacitat de selecció de variables, millorant la capacitat predictiva i millorant la interpretabilitat dels resultats obtinguts. Tot això s'implementarà a més en un paquet de R completament documentat, que inclourà totes les funcions necessàries per a dur a terme anàlisis completes de dades three-way. El treball inclòs en aquesta tesi per tant, consta d'una primera part teorica-conceptual de desenvolupament de la idea de l'algoritme, així com la seua posada a punt, validació i comprovació de la seua eficàcia, d'una segona part empíric-pràctica de comparació dels resultats de l'algoritme amb altres metodologies de selecció de variables existents i d'una part adicional de programació i desenvolupament de programació en la qual es presenta tot el desenvolupament del paquet de R, la seua funcionalitat i capacitats d'anàlisi. El desenvolupament i validació de la tècnica, així com la publicació del paquet de R, ha permès ampliar les opcions actuals per a l'anàlis / [EN] In the last decades, advances in technology have enabled the gathering of an increasingly amount of data in the field of biology and biomedicine. The so called "-omics" technologies such as genomics, epigenomics, transcriptomics or metabolomics, among others, produce hundreds, thousands or even millions of variables per data set. The analysis of 'omic' data presents different complexities that can be methodological and computational. This has driven a revolution in the development of new statistical methods specifically designed for dealing with these type of data. To this methodological complexities one must add the logistic and economic restrictions usually present in scientific research projects that lead to small sample sizes paired to these wide data sets. This makes the analyses even harder, since there is a problem in having many more variables than observations. Among the methods developed to deal with these type of data there are some based on the penalization of the coefficients, such as lasso or elastic net, others based on projection techniques, such as PCA or PLS, and others based in regression or classification trees and ensemble methods such as random forest. All these techniques work fine when dealing with different 'omic' data in matrix format (IxJ), but sometimes, these IxJ data sets can be expanded by taking, for example, repeated measurements at different time points for each individual, thus having IxJxK data sets that raise more methodological complications to the analyses. These data sets are called three-way data. In this cases, the majority of the cited techniques lose all or a good part of their applicability, leaving very few viable options for the analysis of this type of data structures. One useful tool for analyzing three-way data, when some Y data structure is to be predicted, is N-PLS. N-PLS reduces the inclusion of noise in the models and obtains more robust parameters when compared to PLS while, at the same time, producing easy-to-understand plots. Related to the problem of small sample sizes and exorbitant variable numbers, comes the issue of variable selection. Variable selection is essential for facilitating biological interpretation of the results when analyzing 'omic' data sets. Often, the aim of the study is not only predicting the outcome, but also understanding why it is happening and also what variables are involved. It is also of interest being able to perform new predictions without having to collect all the variables again. Because all of this, the main goal of this thesis is to improve the existing methods for 'omic' data analysis, specifically those for dealing with three-way data, incorporating the ability of variable selection, improving predictive capacity and interpretability of results. All this will be implemented in a fully documented R package, that will include all the necessary functions for performing complete analyses of three-way data. The work included in this thesis consists in a first theoretical-conceptual part where the idea and development of the algorithm takes place, as well as its tuning, validation and assessment of its performance. Then, a second empirical-practical part comes where the algorithm is compared to other variable selection methodologies. Finally, an additional programming and software development part is presented where all the R package development takes place, and its functionality and capabilities are exposed. The development and validation of the technique, as well as the publication of the R package, has opened many future research lines. / Hervás Marín, D. (2019). Use of multivariate statistical methods for the analysis of metabolomic data [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/130847 / TESIS
22

Control estadístico de variables cuantitativas mediante inspección por atributos apoyada en el diseño de galgas con dimensiones óptimas.

Mosquera Restrepo, Jaime 16 December 2019 (has links)
[ES] En el Control Estadístico de Procesos, los gráficos de control por variables suelen ser la herramienta empleada para vigilar el comportamiento de una característica cuantitativa de calidad. Para implementar estos gráficos se requiere de la medición periódica de una muestra de unidades del proceso. En algunos procesos, obtener una medición exacta de la variable de calidad es una tarea compleja, que demanda gran cantidad de recursos (costos, tiempo, mano de obra), o que deteriora/destruye la pieza inspeccionada. En estos casos, una alternativa más ágil y económica consiste en realizar el control basado en la verificación de piezas con una galga. Dado que la verificación con una galga suele ser tan sencilla como la verificación de un atributo, el control basado en galgas es mucho más ágil y económico que el control basado en mediciones exactas. En la literatura del Control Estadístico de Procesos se encuentran múltiples propuestas de esquemas de control basado en inspección por galgas. En esta Tesis doctoral realizamos una detallada revisión de estas propuestas y proponemos un nuevo esquema de control basado en galgas, cuyo desempeño estadístico es siempre igual o mejor que el de cualquiera de las propuestas previas. Este esquema es diseñado para el control de la media/varianza de una variable de calidad con distribución normal y posteriormente es extendido para el control de estos parámetros en distribuciones asimétricas (log-normal, skew-normal y Weibull). Adicionalmente, sobre el nuevo esquema de control basado en galgas, se realiza una adaptación de las estrategias de tamaño de muestra adaptativo, Doble muestreo y Tamaño de Muestra Variable, e incorporamos memoria al estadístico de control a través de un esquema de pesos exponencialmente ponderados EWMA. Como resultado se obtienen nuevos esquemas de control, cuya operación e implementación es tan sencilla como la de los gráficos de control por atributos, pero con mejor desempeño estadístico que los gráficos de control por variables. / [CAT] En el Control Estadístic de Processos, els gràfics de control per variables solen ser la ferramenta empleada per a vigilar el comportament d'una característica quantitativa de qualitat. Per a implementar estos gràfics es requerix del mesurament periòdic d'una mostra d'unitats del procés. En alguns processos, obtindre un mesurament exacte de la variable de qualitat és una tasca complexa, que demanda gran quantitat de recursos (costos, temps, mà d'obra) , o que deteriora/ destruïx la peça inspeccionada. En estos casos, una alternativa més àgil i econòmica consistix a realitzar el control basat en la verificació de peces amb una llebrera. Atés que la verificació amb una llebrera sol ser tan senzilla com la verificació d'un atribut, el control basat en llebreres és molt més àgil i econòmic que el control basat en mesuraments exactes. En la literatura del Control Estadístic de Processos es troben múltiples propostes d'esquemes de control basat en inspecció per llebreres. En esta Tesi doctoral realitzem una detallada revisió d'estes propostes i proposem un nou esquema de control basat en llebreres, l'exercici estadístic del qual és sempre igual o millor que el de qualsevol de les propostes prèvies. Este esquema és dissenyat per al control de la media/varianza d'una variable de qualitat amb distribució normal i posteriorment és estés per al control d'estos paràmetres en distribucions asimètriques (log-normal, skew-normal i Weibull). Addicionalment, sobre el nou esquema de control basat en llebreres, es realitza una adaptació de les estratègies de grandària de mostra adaptatiu, Doble mostratge i Grandària de Mostra Variable, i incorporem memòria a l'estadístic de control a través d'un esquema de pesos exponencialment ponderats EWMA. Com resultat s'obtenen nous esquemes de control, l'operació i implementació és tan senzilla com la dels gràfics de control per atributs, però amb millor exercici estadístic que els gràfics de control per variables. / [EN] In Statistical Process Control, control charts by variables are usually the tool used to monitor a quantitative quality characteristic. To implement these charts, periodic measurement of a sample of process units is required. In some processes, obtaining an accurate measurement of the quality variable is a complex task, which demands a large amount of resources (costs, time, labor), or that deteriorates / destroys the inspected unit. In these cases, a more agile and economical alternative is to perform the control based on the verificatión of units with a gauge. Since the verificatión with a gauge is usually as simple as checking an attribute, the control based on gauges is much more agile and economical than the control based on exact measurements. Several proposals of control schemes based on inspectión by gauges are found in the Statistical Process Control literature. In this PhD thesis we review these proposals and propose a new control scheme based on gauges, whose statistical performance is always the same or better than that of any of the previous proposals. This scheme is designed for the control of the means / variance of a quality variable with normal distributión and is subsequently extended for the control of these parameters in asymmetric distributións (log-normal, skew-normal and Weibull). In additión, on the new gauge-based control scheme, an adaptatión of the adaptive sample size: double sampling and variable sample size strategies, is carried out, and incorporates memory to the control statistic through an exponentially weighted EWMA weights scheme. As a result, new control schemes were obtained, whose operatión and implementatión is as simple as that of the control charts by attributes, but with a best statistical performance than the control charts by variables. / Inicialmente quiero agradecer a la Universidad del Valle, Cali – Colombia, por el soporte económico que me brindaron para garantizar mi estancia en la ciudad de Valencia y para el desarrollo de esta tesis doctoral. / Mosquera Restrepo, J. (2019). Control estadístico de variables cuantitativas mediante inspección por atributos apoyada en el diseño de galgas con dimensiones óptimas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/133059 / TESIS
23

Estudio del efecto de la asimetría en problemas de rutas de vehículos

Rodríguez Villalobos, Alejandro 17 April 2012 (has links)
Esta Tesis Doctoral demuestra que la realidad de las redes de transporte que caracterizan los problemas de rutas reales de las empresas, es muy compleja y asimétrica; y esto queda reflejado en las matrices de distancias (tiempos o costes) entre pares de localizaciones que son la base de todo problema de rutas. En esta investigación, se cuantifica la medida en la que el grado de asimetría de las matrices de distancias depende de factores como el territorio y la localización de los clientes; y se subraya la importancia de la obtención de las matrices de distancias reales asimétricas y la barrera de entrada que ello supone. El objetivo principal de esta Tesis Doctoral es cuantificar en qué medida la asimetría tiene un efecto sobre la eficiencia y eficacia de las principales heurísticas y meta-heurísticas reconocidas en la resolución de dos casos fundamentales de los problemas de rutas: el TSP y el CVRP. Adicionalmente, también se estudia el impacto de otros factores (el territorio, la localización, el número de clientes, la demanda y la capacidad máxima) en los resultados (tiempo computacional y bondad de la solución). Mediante la realización de multitud de experimentos computacionales y análisis estadísticos de los resultados (ANOVA entre otros), se demuestra que todas las técnicas estudiadas se ven afectadas en mayor o menor medida por la asimetría y otros factores; y que las soluciones a los problemas simétricos poco o nada tienen que ver con las soluciones en el contexto asimétrico (ni cuantitativa, ni cualitativamente). Con todo ello, se puede inferir que la asimetría tiene un efecto muy importante sobre todos los problemas de rutas de vehículos, y por tanto debe ser considerada como un factor clave de cualquier desarrollo e investigación de aplicación en el contexto real de las empresas. / Rodríguez Villalobos, A. (2012). Estudio del efecto de la asimetría en problemas de rutas de vehículos [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/15184 / Palancia
24

FACTORES CRÍTICOS DE ÉXITO EN EL USO DE LAS REDES SOCIALES EN EL ÁMBITO UNIVERSITARIO:APLICACIÓN A TWITTER.

Guzmán Duque, Alba Patricia 25 April 2013 (has links)
Los avances tecnológicos de los últimos años obligan a las organizaciones a sumergirse en las nuevas formas de comunicación social. Estos mecanismos facilitan la interacción entre los usuarios de las herramientas del Social Media y los usuarios de Internet. Las universidades como instituciones que desean llegar a sus grupos de interés encuentran en las redes sociales la facilidad para comunicarse de manera efectiva con la comunidad educativa. El principal fin de este trabajo es exponer las formas en que las universidades utilizan estas herramientas para dinamizar las comunicaciones con la comunidad educativa a través de las redes sociales. Esta tesis doctoral expone tres logros importantes: el diagnóstico del uso de las redes sociales, el Capital Social que se genera en sus seguidores de Twitter y los Factores Críticos de Éxito que son claves para la eficiencia educativa, detectados a partir de la literatura revisada y relacionados con los resultados obtenidos. Además su principal aporte al campo científico es la combinación de metodologías de investigación en diferentes temas de carácter organizacional y educativo. En el diagnóstico de la utilización de las redes sociales en el ámbito universitario se expone que son un mecanismo para facilitar la comunicación efectiva entre las instituciones y su comunidad. En concreto se detectan dos formas de uso de sus publicaciones: información relacionada con la imagen corporativa de la universidad, y anuncios de la universidad hacia la comunidad universitaria para invitarlos a participar en actividades. Posteriormente en el Capital Social se comprueba que en las universidades a través de sus seguidores en Twitter se fomenta la creación de conocimiento considerando: el número de sus perfiles creados, los tweets publicados, los retweets reenviados a otros usuarios de Twitter, los replies o respuestas a los tweets, y la audiencia potencial en el microblog. Estos indicadores se agrupan en tres dimensiones: presencia de las universidades en Twitter, su objetivo en el tipo de publicaciones que postean en sus cuentas y las actividades que se promueven para que la comunidad interactúe. En el tercer logro, se detectan los Factores Críticos de Éxito que permiten a las universidades incrementar las ventajas que ofrecen las redes sociales a las Instituciones de Educación Superior y que son canalizados a través de aspectos tecnológicos, estratégicos y sociales. Finalmente, el aporte de esta investigación al campo científico evidencia que las universidades en las redes sociales cuentan con un segmento interesado por recibir información desde la institución e interactuar con los miembros de la comunidad. Para demostrar lo anterior se combinaron siete metodologías de la estructura científica que abarcan: los temas del marketing relacional, los usuarios de la web 2.0 como elementos de la relación y del marketing mix, el uso educativo de Facebook, el uso organizacional de Twitter y la medición científica de sus indicadores. Este modelo facilitó demostrar que las redes sociales más que elementos de ocio, son herramientas que por su naturaleza y facilidad de comunicación con usuarios del mundo, permiten la creación de conocimiento. / Guzmán Duque, AP. (2013). FACTORES CRÍTICOS DE ÉXITO EN EL USO DE LAS REDES SOCIALES EN EL ÁMBITO UNIVERSITARIO:APLICACIÓN A TWITTER [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/28212 / Alfresco
25

Éxito Laboral. El Rol de los Profesionales Universitarios en las Organizaciones. Una Comparación entre Graduados Europeos y Latinoamericanos

Grisales del Río, Ángela María 31 March 2015 (has links)
Los últimos años han mostrado una transformación en el entorno de las organizaciones, impulsándolas a realizar cambios en las formas de gestionar los recursos de los que disponen, para poder garantizar su permanencia y así poder prestar un servicio a la sociedad. Los puestos de trabajo y las nuevas formas de establecer las relaciones trabajadororganización han estado demandando cambios en el perfil profesional, mayor flexibilidad y capacidad de adaptación. Tradicionalmente el éxito laboral ha estado asociado a un puesto de trabajo de larga duración, que permite tener un adecuado nivel de ingresos y un estatus acorde con la profesión. Siendo lo anterior un concepto muy válido e importante, también es cierto que existen otras razones que hacen sentir a una persona exitosa laboralmente. Esta investigación tiene como objetivo el estudio del papel de los titulados universitarios dentro de las organizaciones y su éxito profesional. El análisis se realizó considerando variables relacionadas con los conceptosteóricos de éxito objetivo y subjetivo, el rol en el puesto de trabajo, las competencias y los valores laborales, realizando además una comparación entre profesionales universitarios europeos y latinoamericanos. Para ello, en la primera parte se presentan los objetivos de la investigación, la justificación y se estructura el marco teórico de referencia para el planteamiento de la investigación. En la segunda parte se propone el modelo teórico que posteriormente es analizado empíricamente. Para este análisis empírico se han utilizado datos de dos proyectos de seguimiento de graduados universitarios, los proyectos Reflex y Proflex, que han permitido ampliar el conocimiento sobre los estudios superiores, el empleo y las competencias de los graduados universitarios de Europa y de América Latina. En la tercera parte se presenta el análisis descriptivo y una comparación por área geográfica, además del proceso de validación del modelo de investigación y un breve resumen de los resultados obtenidos, entre los que cabe destacar: a) Existen evidencias para afirmar que el éxito laboral objetivo y el éxito laboral subjetivo están relacionados. Su análisis conjunto con el rol en el puesto de trabajo, las competencias personales y requeridas, así como otras características del trabajo, llamados también valores laborales amplían la visión del éxito laboral. b) Los titulados universitarios de Europa y Latinoamérica, desempeñan su rol profesional y están bien posicionados en el mercado laboral de cada uno de sus países. c) La sobrecualificación en competencias afecta la percepción positiva o negativa que se tiene del éxito laboral desde sus dos componentes el éxito objetivo y subjetivo. / Grisales Del Río, ÁM. (2015). Éxito Laboral. El Rol de los Profesionales Universitarios en las Organizaciones. Una Comparación entre Graduados Europeos y Latinoamericanos [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48546 / TESIS
26

Statistical methods for transcriptomics: From microarrays to RNA-seq

Tarazona Campos, Sonia 30 March 2015 (has links)
La transcriptómica estudia el nivel de expresión de los genes en distintas condiciones experimentales para tratar de identificar los genes asociados a un fenotipo dado así como las relaciones de regulación entre distintos genes. Los datos ómicos se caracterizan por contener información de miles de variables en una muestra con pocas observaciones. Las tecnologías de alto rendimiento más comunes para medir el nivel de expresión de miles de genes simultáneamente son los microarrays y, más recientemente, la secuenciación de RNA (RNA-seq). Este trabajo de tesis versará sobre la evaluación, adaptación y desarrollo de modelos estadísticos para el análisis de datos de expresión génica, tanto si ha sido estimada mediante microarrays o bien con RNA-seq. El estudio se abordará con herramientas univariantes y multivariantes, así como con métodos tanto univariantes como multivariantes. / Tarazona Campos, S. (2014). Statistical methods for transcriptomics: From microarrays to RNA-seq [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48485 / TESIS / Premios Extraordinarios de tesis doctorales
27

ADVANCES ON BILINEAR MODELING OF BIOCHEMICAL BATCH PROCESSES

González Martínez, José María 07 October 2015 (has links)
[EN] This thesis is aimed to study the implications of the statistical modeling approaches proposed for the bilinear modeling of batch processes, develop new techniques to overcome some of the problems that have not been yet solved and apply them to data of biochemical processes. The study, discussion and development of the new methods revolve around the four steps of the modeling cycle, from the alignment, preprocessing and calibration of batch data to the monitoring of batches trajectories. Special attention is given to the problem of the batch synchronization, and its effect on the modeling from different angles. The manuscript has been divided into four blocks. First, a state-of- the-art of the latent structures based-models in continuous and batch processes and traditional univariate and multivariate statistical process control systems is carried out. The second block of the thesis is devoted to the preprocessing of batch data, in particular, to the equalization and synchronization of batch trajectories. The first section addresses the problem of the lack of equalization in the variable trajectories. The different types of unequalization scenarios that practitioners might finnd in batch processes are discussed and the solutions to equalize batch data are introduced. In the second section, a theoretical study of the nature of batch processes and of the synchronization of batch trajectories as a prior step to bilinear modeling is carried out. The topics under discussion are i) whether the same synchronization approach must be applied to batch data in presence of different types of asynchronisms, and ii) whether synchronization is always required even though the length of the variable trajectories are constant across batches. To answer these questions, a thorough study of the most common types of asynchronisms that may be found in batch data is done. Furthermore, two new synchronization techniques are proposed to solve the current problems in post-batch and real-time synchronization. To improve fault detection and classification, new unsupervised control charts and supervised fault classifiers based on the information generated by the batch synchronization are also proposed. In the third block of the manuscript, a research work is performed on the parameter stability associated with the most used synchronization methods and principal component analysis (PCA)-based Batch Multivariate Statistical Process Control methods. The results of this study have revealed that accuracy in batch synchronization has a profound impact on the PCA model parameters stability. Also, the parameter stability is closely related to the type of preprocessing performed in batch data, and the type of model and unfolding used to transform the three-way data structure to two-way. The setting of the parameter stability, the source of variability remaining after preprocessing and the process dynamics should be balanced in such a way that multivariate statistical models are accurate in fault detection and diagnosis and/or in online prediction. Finally, the fourth block introduces a graphical user-friendly interface developed in Matlab code for batch process understanding and monitoring. To perform multivariate analysis, the last developments in process chemometrics, including the methods proposed in this thesis, are implemented. / [ES] La presente tesis doctoral tiene como objetivo estudiar las implicaciones de los métodos estadísticos propuestos para la modelización bilineal de procesos por lotes, el desarrollo de nuevas técnicas para solucionar algunos de los problemas más complejos aún por resolver en esta línea de investigación y aplicar los nuevos métodos a datos provenientes de procesos bioquímicos para su evaluación estadística. El estudio, la discusión y el desarrollo de los nuevos métodos giran en torno a las cuatro fases del ciclo de modelización: desde la sincronización, ecualización, preprocesamiento y calibración de los datos, a la monitorización de las trayectorias de las variables del proceso. Se presta especial atención al problema de la sincronización y su efecto en la modelización estadística desde distintas perspectivas. El manuscrito se ha dividido en cuatro grandes bloques. En primer lugar, se realiza una revisión bibliográfica de las técnicas de proyección sobre estructuras latentes para su aplicación en procesos continuos y por lotes, y del diseño de sistemas de control basados en modelos estadísticos multivariantes. El segundo bloque del documento versa sobre el preprocesamiento de los datos, en concreto, sobre la ecualización y la sincronización. La primera parte aborda el problema de la falta de ecualización en las trayectorias de las variables. Se discuten las diferentes políticas de muestreo que se pueden encontrar en procesos por lotes y las soluciones para ecualizar las variables. En la segunda parte de esta sección, se realiza un estudio teórico sobre la naturaleza de los procesos por lotes y de la sincronización de las trayectorias como paso previo a la modelización bilineal. Los temas bajo discusión son: i) si se debe utilizar el mismo enfoque de sincronización en lotes afectados por diferentes tipos de asincronismos, y ii) si la sincronización es siempre necesaria aún y cuando las trayectorias de las variables tienen la misma duración en todos los lotes. Para responder a estas preguntas, se lleva a cabo un estudio exhaustivo de los tipos más comunes de asincronismos que se pueden encontrar en este tipo de datos. Además, se proponen dos nuevas técnicas de sincronización para resolver los problemas existentes en aplicaciones post-morten y en tiempo real. Para mejorar la detección de fallos y la clasificación, también se proponen nuevos gráficos de control no supervisados y clasificadores de fallos supervisados en base a la información generada por la sincronización de los lotes. En el tercer bloque del manuscrito se realiza un estudio de la estabilidad de los parámetros asociados a los métodos de sincronización y a los métodos estadístico multivariante basados en el Análisis de Componentes Principales (PCA) más utilizados para el control de procesos. Los resultados de este estudio revelan que la precisión de la sincronización de las trayectorias tiene un impacto significativo en la estabilidad de los parámetros de los modelos PCA. Además, la estabilidad paramétrica está estrechamente relacionada con el tipo de preprocesamiento realizado en los datos de los lotes, el tipo de modelo a justado y el despliegue utilizado para transformar la estructura de datos de tres a dos dimensiones. El ajuste de la estabilidad de los parámetros, la fuente de variabilidad que queda después del preprocesamiento de los datos y la captura de las dinámicas del proceso deben ser a justados de forma equilibrada de tal manera que los modelos estadísticos multivariantes sean precisos en la detección y diagnóstico de fallos y/o en la predicción en tiempo real. Por último, el cuarto bloque del documento describe una interfaz gráfica de usuario que se ha desarrollado en código Matlab para la comprensión y la supervisión de procesos por lotes. Para llevar a cabo los análisis multivariantes, se han implementado los últimos desarrollos en la quimiometría de proc / [CA] Aquesta tesi doctoral te com a objectiu estudiar les implicacions dels mètodes de modelització estadística proposats per a la modelització bilineal de processos per lots, el desenvolupament de noves tècniques per resoldre els problemes encara no resolts en aquesta línia de recerca i aplicar els nous mètodes a les dades dels processos bioquímics. L'estudi, la discussió i el desenvolupament dels nous mètodes giren entorn a les quatre fases del cicle de modelització, des de l'alineació, preprocessament i el calibratge de les dades provinents de lots, a la monitorització de les trajectòries. Es presta especial atenció al problema de la sincronització per lots, i el seu efecte sobre el modelatge des de diferents angles. El manuscrit s'ha dividit en quatre grans blocs. En primer lloc, es realitza una revisió bibliogràfica dels principals mètodes basats en tècniques de projecció sobre estructures latents en processos continus i per lots, així com dels sistemes de control estadístics multivariats. El segon bloc del document es dedica a la preprocessament de les dades provinents de lots, en particular, l' equalització i la sincronització. La primera part aborda el problema de la manca d'equalització en les trajectòries de les variables. Es discuteixen els diferents tipus d'escenaris en que les variables estan mesurades a distints intervals i les solucions per equalitzar-les en processos per lots. A la segona part d'aquesta secció es porta a terme un estudi teòric de la naturalesa dels processos per lots i de la sincronització de les trajectòries de lots com a pas previ al modelatge bilineal. Els temes en discussió són: i) si el mateix enfocament de sincronització ha de ser aplicat a les dades del lot en presència de diferents tipus de asincronismes, i ii) si la sincronització sempre es requereix tot i que la longitud de les trajectòries de les variables són constants en tots el lots. Per respondre a aquestes preguntes, es du a terme un estudi exhaustiu dels tipus més comuns de asincronismes que es poden trobar en les dades provinents de lots. A més, es proposen dues noves tècniques de sincronització per resoldre els problemes existents la sincronització post-morten i en temps real. Per millorar la detecció i la classificació de anomalies, també es proposen nous gràfics de control no supervisats i classificadors de falla supervisats dissenyats en base a la informació generada per la sincronització de lots. En el tercer bloc del manuscrit es realitza un treball de recerca sobre l'estabilitat dels paràmetres associats als mètodes de sincronització i als mètodes estadístics multivariats basats en l'Anàlisi de Components Principals (PCA) més utilitzats per al control de processos. Els resultats d'aquest estudi revelen que la precisió en la sincronització per lots te un profund impacte en l'estabilitat dels paràmetres dels models PCA. A més, l'estabilitat paramètrica està estretament relacionat amb el tipus de preprocessament realitzat en les dades provinents de lots, el tipus de model i el desplegament utilitzat per transformar l'estructura de dades de tres a dos dimensions. L'ajust de l'estabilitat dels paràmetres, la font de variabilitat que queda després del preprocessament i la captura de la dinàmica de procés ha de ser equilibrada de tal manera que els models estadístics multivariats són precisos en la detecció i diagnòstic de fallades i/o en la predicció en línia. Finalment, el quart bloc del document introdueix una interfície gràfica d'usuari que s'ha dissenyat e implementat en Matlab per a la comprensió i la supervisió de processos per lots. Per dur a terme aquestes anàlisis multivariats, s'han implementat els últims desenvolupaments en la quimiometria de processos, incloent-hi els mètodes proposats en aquesta tesi. / González Martínez, JM. (2015). ADVANCES ON BILINEAR MODELING OF BIOCHEMICAL BATCH PROCESSES [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/55684 / TESIS / Premios Extraordinarios de tesis doctorales
28

Estrategias metodológicas para la construcción de indicadores compuestos en la gestión universitaria

Bas Cerdá, María del Carmen 04 February 2014 (has links)
Over the past few years, higher education institutions have been submitted to various changes largely conditioned by the demands of society. The change from a university for the elite to a university for the masses, the increasing demand for the improvement in quality, the globalization of knowledge, the competitiveness at national and international levels, the development of internal improvement procedures, the changes in relationships with administration and society in general; are some of the unavoidable factors of growing importance in the field of higher education in Europe and around the world. Accountability, to build trust between society and universities, and the demand for transparency, for the design and implementation of plans for improvement and decision-making, are key aspects for meeting society¿s needs. Nevertheless, it is a fact that universities offer less openness than desired, although in recent years there has been a common effort to change this situation. Spanish universities have developed several initiatives to assess the quality of university activities. In particular, one of the relevant challenges to ensure quality in the Spanish university system is the assessment of the university teaching staff activity. The importance of the assessment activities is ever increasing. Such activities can help ensure the quality of educational processes affecting students, the university community and society in general. The evaluation results will allow the design and implementation of plans for improvement for the performance of university teaching staff at universities. It is therefore important to have measurement tools to assess the university teaching staff activity in three dimensions: teaching, research and management. However, commonly the assessment instrument used does not meet the need for the transparency which society demands. The aim of this research is to design methodological strategies for building composite indicators to assess and measure multidimensional concepts related to higher education management. To that end, a thorough review of the statistical techniques that can be applied in the development of composite indicators is performed. Furthermore, the importance of the indicators as a basic tool for suitable quality management and accountability in universities is studied. After reviewing a summary of the use of indicators in higher education, this study focuses on the assessment of the academic activities of the Universitat Politècnica de València teaching staff. First of all, an exploratory analysis of all indicators proposed by the university, for their teaching staff assessment, is performed. To do this, statistical techniques of dimensionality reduction, and classification techniques are applied. Subsequently, different methodologies for constructing a composite indicator that measures teaching activity are proposed, according to the normalization and weighting techniques applied. Lastly, the analytical characteristics of each of the methodologies proposed are studied, using uncertainty and global sensitivity analysis techniques to evaluate the quality and robustness of the proposed models, according to the goals set by the university. The uncertainty analysis is performed using a quasi-random simulation process and applying a non-compensatory aggregation technique on the results, known as the Copeland method. A nonparametric approach, known as the State Dependent Parameter, based on the Kalman filter and smoothing techniques, is performed to apply global sensitivity analysis. The uncertainty and sensitivity analysis are considered necessary techniques to provide validity and methodological support for the composite indicators proposed. Finally, the generalization of the composite indicator referring to teaching activity is studied, and a composite indicator is designed to evaluate the academic activity of each teacher with respect to the rest. This is based on the three main dimensions of university teachers: teaching, research and university management. In order to do this, a non-parametric weighting and aggregation technique called Benefit of the Doubt is applied. This technique measures the relative effectiveness in the development of academic activities of each member of university teaching staff, according to their academic profile. The methodological techniques proposed in this study are applicable in any field of research, and they provide a robust and transparent construction scheme of composite indicators. / Bas Cerdá, MDC. (2014). Estrategias metodológicas para la construcción de indicadores compuestos en la gestión universitaria [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/35330 / TESIS
29

Caracterización microclimática mediante sensores de humedad y temperatura de obras de arte con fines de conservación preventiva

Merello Giménez, Paloma 30 October 2016 (has links)
[EN] This PhD dissertation deals with the multivariate statistical analysis of microclimatic data for preventive conservation of cultural heritage in several locations: Ariadne's house (Pompeii, Italy), l'Almoina Archaeological Museum (Valencia, Spain) and mudejar church of Santa Maria in Ateca (Zaragoza, Spain). The main objective of this thesis is to propose a methodology for statistical analysis of microclimatic data which can be extended to curators and restorers. The usefulness of the proposed methodology is shown, as it has been successfully applied to the studied cultural heritage sites. Furthermore, corrective actions have been proposed and taken in accordance with the results obtained from the analysis of data recorded at Ariadne's house and the Archaeological Museum of l'Almoina. The effectiveness of such corrective measures has been evaluated through a second monitoring campaign. In the case of Ariadne's house, two monitoring campaigns were conducted. During the first, in 2008, the analysis of the recorded data showed that the transparent polycarbonate roof installed in the 1970s was causing a greenhouse effect harmful to the conservation of the frescoes. The sensors also helped identifying differences between orientations and heights. Following our recommendations, in 2010 the roofs were changed by some opaque fibrocement and thermo-hygrometric data recorded in a second monitoring campaign allowed us evaluating the adequacy of the corrective actions in configuring a more stable microclimate. The Archaeological Museum of l'Almoina is exposed to passers-by through a skylight that covers part of the ruins. A first monitoring campaign in 2010 allowed the thermo-hygrometric characterization of the inner microclimate and the identification of the significant influence of the skylight on the temperature and relative humidity values, causing sharp rises and falls during the daylight hours. In 2013 two corrective measures were implemented and evaluated subsequently through a second microclimatic monitoring campaign conducted at the museum. The mudejar church of Santa Maria is located in Ateca, a town in the province of Zaragoza characterised by cold winters and warm summers. Given the low temperatures in winter, a heating system is used. The results of our analysis have shown that the heating system is turned on only for the celebration of Mass or religious festivities (half hour before the entrance of public at the church), causing extreme cycles of temperature and humidity, especially at the upper parts of the altarpiece due to the rising of hot air (hourly increase of 7 ºC in temperature and a decrease of 11% relative humidity) that are detrimental for the conservation of this artwork. / [ES] Esta tesis doctoral trata sobre el análisis estadístico multivariante de datos microclimaticos para la conservación preventiva en patrimonio cultural: la casa de Ariadna (Pompeya, Italia), el Museo arqueológico de l'Almoina (Valencia, España) y la iglesia mudéjar de Santa María en Ateca (Ateca, España) . El objetivo principal de esta tesis es proponer una metodología de análisis estadístico de datos microclimáticos extensible a conservadores y restauradores. Se demuestra la utilidad de la metodología propuesta, ya que ha sido posible caracterizar los sitios del patrimonio cultural estudiados. Además, se han propuesto y adoptado acciones correctivas de acuerdo con los resultados obtenidos del análisis de los datos registrados en la casa de Ariadna y el Museo arqueológico de l'Almoina. La efectividad de dichas medidas correctoras ha sido evaluada a través de una segunda campaña de monitorización. En el caso de la casa de Ariadna, dos campañas de monitorización se llevaron a cabo. Durante la primera, en 2008, el análisis de los datos recogidos demostró que los tejados de policarbonato transparente instalados en los años 70 estaban provocando un efecto invernadero muy perjudicial para la conservación de los frescos. Los sensores permitieron además identificar diferencias entre orientaciones y alturas. Bajo las recomendaciones realizadas, en 2010 los tejados fueron cambiados por unos opacos de fibrocemento, y los datos termo-higrométricos recogidos en una segunda campaña de monitorización permitieron evaluar la adecuación de la medida correctiva en la configuración de un microclima más estable. El Museo arqueológico de l'Almoina se encuentra expuesto a los viandantes a través de una claraboya que cubre parte de las ruinas. Una primera campaña de monitorización en 2010 permitió caracterizar termo-higrométricamente el museo e identificar la influencia significativa de la claraboya sobre la temperatura y la humedad relativa, causando fuertes aumentos y caídas durante las horas de luz del día, así como un aporte de humedad de una acequia colindante. En 2013 se llevaron a cabo dos medidas correctivas que fueron evaluadas a través de una segunda monitorización microclimática. La iglesia mudéjar de Santa María está situada en Ateca, una población de la provincia de Zaragoza caracterizada por fríos inviernos y cálidos veranos. Esta fría climatología invernal condiciona la iglesia al uso de un sistema de climatización. El resultado de nuestros análisis ha puesto de manifiesto que el sistema de climatización solo se enciende para la celebración de misas o festividades religiosas, media hora antes de que entre el público en la iglesia, provocando extremos ciclos de temperatura y humedad relativa, más notables en las partes altas del retablo por el ascenso del aire caliente (incremento horario de 7 ºC en la temperatura y un descenso del 11% de la humedad relativa) que resultan perjudiciales para la conservación de este. / [CAT] Aquesta Tesi doctoral tracta sobre l'anàlisi estadístic multivariant de dades microclimatics per a la conservació preventiva en patrimoni cultural: la casa d'Ariadna (Pompeia, Itàlia), el Museu arqueològic de l'Almoina (València, Espanya) i l'església mudèjar de Santa Maria en Ateca (Saragossa, Espanya). L'objectiu principal d'aquesta tesi _es proposar una metodologia d'anàlisi estadístic de dades microclimatics extensible a conservadors i restauradors. Es demostra la utilitat de la metodologia proposada, ja que ha sigut possible caracteritzar els llocs del patrimoni cultural estudiats. A més, s'han proposat i adoptat accions correctives d'acord amb els resultats obtinguts de l'anàlisi de les dades registrades en la casa d'Ariadna i el Museu arqueològic de l'Almoina. L'efectivitat d'aquestes mesures correctores ha sigut avaluada a través d'una segona campanya de monitoratge. En el cas de la casa d'Ariadna, dues campanyes de monitoratge es van dur a terme. Durant la primera, en 2008, l'anàlisi de les dades enregistrades va demostrar que les teulades de policarbonat transparent instal·lades en els anys 70 estaven provocant un efecte hivernacle molt perjudicial per a la conservació dels frescs. Els sensors van permetre a més identificar diferències entre orientacions i altures. Sota les recomanacions realitzades, en 2010 les teulades van ser canviades per unes opaques de fibrociment, i les dades termo-higromètriques arreplegades en una segona campanya de monitoratge van permetre avaluar l'adequació de la mesura correctiva en la configuració d'un microclima més estable. El Museu arqueològic de l'Almoina es troba exposat als vianants a través d'una claraboia que cobreix part de les ruïnes. Una primera campanya de monitoratge en 2010 va permetre caracteritzar termo-higrometricament el museu i identificar la influència significativa de la claraboia sobre la temperatura i la humitat relativa, causant forts augments i caigudes durant les hores diürnes, així__ com una aportació d'humitat d'una sèquia confrontant. En 2013 es van dur a terme dues mesures correctives que van ser avaluades a través d'un segon monitoratge microclimàtic. L'església mudèjar de Santa Maria està situada en Ateca, una població de la província de Saragossa caracteritzada per freds hiverns i càlids estius. Aquesta freda climatologia hivernal condiciona l'església a l'ús d'un sistema de climatització. El resultat de les nostres anàlisis ha posat de manifest que el sistema de climatització solament s'encén per a la celebració de misses o festivitats religioses, mitja hora abans que entre el públic en l'església, provocant extrems cicles de temperatura i humitat relativa, més notables en les parts altes del retaule per l'ascens de l'aire calent (increment horari de 7ºC en la temperatura i un descens del 11% de la humitat relativa) que resulten perjudicials per a la conservació d'aquest. / Merello Giménez, P. (2015). Caracterización microclimática mediante sensores de humedad y temperatura de obras de arte con fines de conservación preventiva [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/57490 / TESIS
30

Heuristics and metaheuristics for heavily constrained hybrid flowshop problems

Urlings ., Thijs 16 July 2010 (has links)
Due to the current trends in business as the necessity to have a large catalogue of products, orders that increase in frequency but not in size, globalisation and a market that is increasingly competitive, the production sector faces an ever harder economical environment. All this raises the need for production scheduling with maximum efficiency and effectiveness. The first scientific publications on production scheduling appeared more than half a century ago. However, many authors have recognised a gap between the literature and the industrial problems. Most of the research concentrates on optimisation problems that are actually a very simplified version of reality. This allows for the use of sophisticated approaches and guarantees in many cases that optimal solutions are obtained. Yet, the exclusion of real-world restrictions harms the applicability of those methods. What the industry needs are systems for optimised production scheduling that adjust exactly to the conditions in the production plant and that generates good solutions in very little time. This is exactly the objective in this thesis, that is, to treat more realistic scheduling problems and to help closing the gap between the literature and practice. The considered scheduling problem is called the hybrid flowshop problem, which consists in a set of jobs that flow through a number of production stages. At each of the stages, one of the machines that belong to the stage is visited. A series of restriction is considered that include the possibility to skip stages, non-eligible machines, precedence constraints, positive and negative time lags and sequence dependent setup times. In the literature, such a large number of restrictions has not been considered simultaneously before. Briefly, in this thesis a very realistic production scheduling problem is studied. Various optimisation methods are presented for the described scheduling problem. A mixed integer programming model is proposed, in order to obtai / Urlings ., T. (2010). Heuristics and metaheuristics for heavily constrained hybrid flowshop problems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8439 / Palancia

Page generated in 0.4107 seconds