• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 34
  • Tagged with
  • 94
  • 94
  • 93
  • 29
  • 24
  • 18
  • 14
  • 13
  • 13
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Heuristics and metaheuristics for heavily constrained hybrid flowshop problems

Urlings ., Thijs 16 July 2010 (has links)
Due to the current trends in business as the necessity to have a large catalogue of products, orders that increase in frequency but not in size, globalisation and a market that is increasingly competitive, the production sector faces an ever harder economical environment. All this raises the need for production scheduling with maximum efficiency and effectiveness. The first scientific publications on production scheduling appeared more than half a century ago. However, many authors have recognised a gap between the literature and the industrial problems. Most of the research concentrates on optimisation problems that are actually a very simplified version of reality. This allows for the use of sophisticated approaches and guarantees in many cases that optimal solutions are obtained. Yet, the exclusion of real-world restrictions harms the applicability of those methods. What the industry needs are systems for optimised production scheduling that adjust exactly to the conditions in the production plant and that generates good solutions in very little time. This is exactly the objective in this thesis, that is, to treat more realistic scheduling problems and to help closing the gap between the literature and practice. The considered scheduling problem is called the hybrid flowshop problem, which consists in a set of jobs that flow through a number of production stages. At each of the stages, one of the machines that belong to the stage is visited. A series of restriction is considered that include the possibility to skip stages, non-eligible machines, precedence constraints, positive and negative time lags and sequence dependent setup times. In the literature, such a large number of restrictions has not been considered simultaneously before. Briefly, in this thesis a very realistic production scheduling problem is studied. Various optimisation methods are presented for the described scheduling problem. A mixed integer programming model is proposed, in order to obtai / Urlings ., T. (2010). Heuristics and metaheuristics for heavily constrained hybrid flowshop problems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8439 / Palancia
32

Optimización Evolutiva y Multiobjetivo en base a criterios RAMS+C para Centrales Nucleares

Villanueva López, José Felipe 05 September 2011 (has links)
En el ámbito de las centrales nucleares existe un gran interés en el estudio de las características de fiabilidad, mantenibilidad y disponibilidad de sus equipos y su influencia en la seguridad y la economía de las centrales. Por todo ello, la toma de decisiones sobre la mejora y, en su caso, optimización de las pruebas y del mantenimiento en centrales nucleares se puede mejorar con la consideración simultánea de criterios RAMS+C. El proceso para encontrar los procedimientos de pruebas y mantenimientos óptimos debe equilibrar los logros alcanzados en base a los criterios RAMS+C. El reto que plantea la presente tesis es, por un lado, la necesidad de formular nuevos modelos que permitan representar de forma explícita el efecto de las pruebas y mantenimientos sobre dichos criterios RAMS+C. En segundo lugar, se requiere del estudio de la viabilidad de nuevos métodos de optimización capaces de manejar de forma adecuada tanto la complejidad de los nuevos modelos desarrollados como el gran número de variables de decisión que pueden estar involucradas en el proceso de optimización en base a múltiples criterios RAMS+C y además, que sean capaces de obtener buenos resultados en la optimización en presencia de incertidumbres asociadas tanto a parámetros, modelos o variables de decisión, y que afectan a la toma de decisiones. Para la resolución del problema de optimización multicriterio que se plantea se ha seleccionado como herramienta de optimización evolutiva los algoritmos genéticos, los cuales han mostrado una alta eficiencia en la resolución de problemas complejos. El objetivo pues de la presente tesis se centra en el desarrollo de nuevos modelos y métodos necesarios para acometer el proceso de optimización de pruebas y mantenimientos en base a criterios RAMS+C, con aplicación a sistemas de seguridad de centrales nucleares. Se han propuesto varias aproximaciones que modelan el comportamiento de los equipos con independencia temporal. / Villanueva López, JF. (2011). Optimización Evolutiva y Multiobjetivo en base a criterios RAMS+C para Centrales Nucleares [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11446 / Palancia
33

Modelización multivariante de los Procesos de Enseñanza - Aprendizaje basados en Competencias en Educación Superior

Conchado Peiró, Andrea 14 October 2011 (has links)
La importancia de las competencias en el ámbito universitario se ha incrementado de forma muy significativa en los últimos años. Este cambio de enfoque en los estudios universitarios implica la necesidad de una transformación metodológica, no sólo en cuanto a la definición y planificación de las materias sino en lo que se refiere a la selección de nuevas metodologías docentes. La responsabilidad de la ejecución en la práctica de dichos planes recae en última instancia sobre el profesorado universitario quienes requieren el desarrollo de investigaciones orientadas al estudio de los procesos de enseñanza - aprendizaje de competencias. ..El objetivo de este trabajo es modelizar estos procesos de enseñanza - aprendizaje de competencias en Educación Superior, considerando los distintos factores del entorno académico y personal de los estudiantes que potencialmente pueden influir en los resultados del aprendizaje obtenidos. Para ello se realiza en primer lugar una revisión sobre los antecedentes relacionados con dicha cuestión.Seguidamente se evalúan las relaciones entre factores relativos al contexto de los estudiantes y las competencias que adquirieron en la Universidad. Del mismo modo se estudia cómo la presencia de determinadas variables modificadoras del efecto, como el área de estudio, influyen en las relaciones entre variables mediante la introducción de relaciones de interacción y confusión. Una vez examinadas las relaciones entre los factores del contexto de los estudiantes, se validan los instrumentos de medida empleados para cuantificar los Métodos de enseñanza - aprendizaje y las Competencias adquiridas en la Universidad, cuyo ajuste se considera excelente o muy bueno en todos los casos. A partir de ambos modelos de medida se propone en base a la teoría y análisis exploratorios previos, un modelo causal de relaciones estructurales. / Conchado Peiró, A. (2011). Modelización multivariante de los Procesos de Enseñanza - Aprendizaje basados en Competencias en Educación Superior [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/12099 / Palancia
34

ANALYSIS OF MONITORING NETWORK SPATIAL AND TEMPORAL REDUCTION AND THEIR CONSEQUENCES ON THE ECOLOGICAL CLASSIFICATION IN THE SCOPE OF WATER FRAME DIRECTIVE

Abramic, Andrej 15 May 2013 (has links)
La Directiva Marco Europea del Agua es la norma legislativa más importante que ha establecido la Comisión Europea, en materia de aguas, y constituye un importante avance para lograr una gestión sostenible del agua. Esta norma exige que todas las aguas, alcancen en el 2015 un status bueno e indica los pasos a seguir para conseguirlo, mediante el establecimiento de objetivos ecológicos y medioambientales en las mismas. Para concretar estos objetivos, la DMA ha establecido un sistema de indicadores biológicos, hidro-morfológicos y fisicoquímicos que determinan la calidad ecológica de las diferentes masas de agua. Para proporcionar una clasificación ecológica de las masas de agua costeras en la Comunidad Valencia existe una red de monitoreo costera que analiza la biomasa de fitoplancton, de forma indirecta a partir de la clorofila a. En las mismas, se establece la calidad de las aguas costeras en base al valor del percentil 90 del total de mediciones de clorofila a recogidas en sucesivas campañas mensuales durante un período de 5 años. Se ha considerado la posibilidad de reducir el número de campañas realizadas a lo largo del año y la posibilidad de reducir el número de estaciones revisadas en cada campaña y que consecuencias lleva esta reducción por estado ecológico. Los resultados del estudio exploratorio para la reducción temporal, muestran que una reducción no controlada en el número de campañas realizadas a lo largo del año en las aguas costeras valencianas, puede producir alteraciones impredecibles en su clasificación ecológica. Un estudio conjunto de las series pluviométricas, de oleaje, salinidad y clorofila a, para los tres climas marítimos presentes en las aguas costeras valencianas, ha permitido observar que el equilibrio trófico de los ecosistemas, en esta zona, depende tanto de la influencia antropogénica como de factores medioambientales determinados por la estacionalidad e irregularidad del clima. En base a ello, se han definido tres tipos de ecosistema / Abramic, A. (2011). ANALYSIS OF MONITORING NETWORK SPATIAL AND TEMPORAL REDUCTION AND THEIR CONSEQUENCES ON THE ECOLOGICAL CLASSIFICATION IN THE SCOPE OF WATER FRAME DIRECTIVE [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/28851 / Palancia
35

VALIDACION DE LAS ESCALAS DEL JOB DIAGNOSTIC SURVEY (JDS) APLICADAS A ENTORNOS EDUCATIVOS UNIVERSITARIOS

Giraldo O'Meara, Martha Marcela 31 March 2014 (has links)
Desde hace tiempo se habla de la necesidad de modificar la enseñanza tradicional, caracterizada por la superficialidad en el aprendizaje y la pasividad en el estudiante, por una en la que éste participe de forma activa y cuyo aprendizaje sea más profundo. De hecho, en la adaptación que están llevando a cabo las universidades en España, dentro de los planes del Espacio Europeo de Educación Superior (EEES), uno de los objetivos propuestos es la mejora de las metodologías y recursos en la educación de los estudiantes. Este tipo de aprendizaje activo genera un contexto más motivador, estimulante y más satisfactorio para los estudiantes, y una forma de crearlo es modificando las actividades que los estudiantes realizan en clase, es decir, las características del contexto de aprendizaje. A pesar de toda la investigación que existe en el área de la educación sobre este aspecto, sigue existiendo un vacío con respecto a las características relacionadas con el aprendizaje y con la motivación y la satisfacción. Al no haber podido encontrar instrumentos que evalúen este tipo de conceptos, se ha decidido investigar dentro del mundo laboral, para comprender mejor ambos constructos. La analogía entre el mundo laboral y el académico no es un planteamiento nuevo. Desde hace mucho tiempo se ha sugerido la idea de que lo que hace el estudiante en la universidad, es comparable a lo que hace un trabajador en su puesto de trabajo. En este trabajo se ha realizado la adaptación al mundo académico, de un instrumento ampliamente utilizado en el mundo laboral para diagnosticar y rediseñar las propiedades motivacionales del puesto de trabajo y medir la satisfacción en los trabajadores: El Job Diagnostic Survey (JDS). Aunque existen otros instrumentos que evalúan estos conceptos, el JDS, además de ser uno de los instrumentos más utilizados para su valoración, incluye ambos constructos en su modelo conceptual. A través de este trabajo se ha conseguido ofrecer un instrumento válido para analizar el potencial motivador del puesto de trabajo de los alumnos, rediseñarlo y evaluar cómo influye en la satisfacción. / Giraldo O'meara, MM. (2014). VALIDACION DE LAS ESCALAS DEL JOB DIAGNOSTIC SURVEY (JDS) APLICADAS A ENTORNOS EDUCATIVOS UNIVERSITARIOS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/36741 / TESIS
36

Bernoulli HMMs for Handwritten Text Recognition

Giménez Pastor, Adrián 09 June 2014 (has links)
In last years Hidden Markov Models (HMMs) have received significant attention in the task off-line handwritten text recognition (HTR). As in automatic speech recognition (ASR), HMMs are used to model the probability of an observation sequence, given its corresponding text transcription. However, in contrast to what happens in ASR, in HTR there is no standard set of local features being used by most of the proposed systems. In this thesis we propose the use of raw binary pixels as features, in conjunction with models that deal more directly with the binary data. In particular, we propose the use of Bernoulli HMMs (BHMMs), that is, conventional HMMs in which Gaussian (mixture) distributions have been replaced by Bernoulli (mixture) probability functions. The objective is twofold: on the one hand, this allows us to better modeling the binary nature of text images (foreground/background) using BHMMs. On the other hand, this guarantees that no discriminative information is filtered out during feature extraction (most HTR available datasets can be easily binarized without a relevant loss of information). In this thesis, all the HMM theory required to develop a HMM based HTR toolkit is reviewed and adapted to the case of BHMMs. Specifically, we begin by defining a simple classifier based on BHMMs with Bernoulli probability functions at the states, and we end with an embedded Bernoulli mixture HMM recognizer for continuous HTR. Regarding the binary features, we propose a simple binary feature extraction process without significant loss of information. All input images are scaled and binarized, in order to easily reinterpret them as sequences of binary feature vectors. Two extensions are proposed to this basic feature extraction method: the use of a sliding window in order to better capture the context, and a repositioning method in order to better deal with vertical distortions. Competitive results were obtained when BHMMs and proposed methods were applied to well-known HTR databases. In particular, we ranked first at the Arabic Handwriting Recognition Competition organized during the 12th International Conference on Frontiers in Handwriting Recognition (ICFHR 2010), and at the Arabic Recognition Competition: Multi-font Multi-size Digitally Represented Text organized during the 11th International Conference on Document Analysis and Recognition (ICDAR 2011). In the last part of this thesis we propose a method for training BHMM classifiers using In last years Hidden Markov Models (HMMs) have received significant attention in the task off-line handwritten text recognition (HTR). As in automatic speech recognition (ASR), HMMs are used to model the probability of an observation sequence, given its corresponding text transcription. However, in contrast to what happens in ASR, in HTR there is no standard set of local features being used by most of the proposed systems. In this thesis we propose the use of raw binary pixels as features, in conjunction with models that deal more directly with the binary data. In particular, we propose the use of Bernoulli HMMs (BHMMs), that is, conventional HMMs in which Gaussian (mixture) distributions have been replaced by Bernoulli (mixture) probability functions. The objective is twofold: on the one hand, this allows us to better modeling the binary nature of text images (foreground/background) using BHMMs. On the other hand, this guarantees that no discriminative information is filtered out during feature extraction (most HTR available datasets can be easily binarized without a relevant loss of information). In this thesis, all the HMM theory required to develop a HMM based HTR toolkit is reviewed and adapted to the case of BHMMs. Specifically, we begin by defining a simple classifier based on BHMMs with Bernoulli probability functions at the states, and we end with an embedded Bernoulli mixture HMM recognizer for continuous HTR. Regarding the binary features, we propose a simple binary feature extraction process without significant loss of information. All input images are scaled and binarized, in order to easily reinterpret them as sequences of binary feature vectors. Two extensions are proposed to this basic feature extraction method: the use of a sliding window in order to better capture the context, and a repositioning method in order to better deal with vertical distortions. Competitive results were obtained when BHMMs and proposed methods were applied to well-known HTR databases. In particular, we ranked first at the Arabic Handwriting Recognition Competition organized during the 12th International Conference on Frontiers in Handwriting Recognition (ICFHR 2010), and at the Arabic Recognition Competition: Multi-font Multi-size Digitally Represented Text organized during the 11th International Conference on Document Analysis and Recognition (ICDAR 2011). In the last part of this thesis we propose a method for training BHMM classifiers using In last years Hidden Markov Models (HMMs) have received significant attention in the task off-line handwritten text recognition (HTR). As in automatic speech recognition (ASR), HMMs are used to model the probability of an observation sequence, given its corresponding text transcription. However, in contrast to what happens in ASR, in HTR there is no standard set of local features being used by most of the proposed systems. In this thesis we propose the use of raw binary pixels as features, in conjunction with models that deal more directly with the binary data. In particular, we propose the use of Bernoulli HMMs (BHMMs), that is, conventional HMMs in which Gaussian (mixture) distributions have been replaced by Bernoulli (mixture) probability functions. The objective is twofold: on the one hand, this allows us to better modeling the binary nature of text images (foreground/background) using BHMMs. On the other hand, this guarantees that no discriminative information is filtered out during feature extraction (most HTR available datasets can be easily binarized without a relevant loss of information). In this thesis, all the HMM theory required to develop a HMM based HTR toolkit is reviewed and adapted to the case of BHMMs. Specifically, we begin by defining a simple classifier based on BHMMs with Bernoulli probability functions at the states, and we end with an embedded Bernoulli mixture HMM recognizer for continuous HTR. Regarding the binary features, we propose a simple binary feature extraction process without significant loss of information. All input images are scaled and binarized, in order to easily reinterpret them as sequences of binary feature vectors. Two extensions are proposed to this basic feature extraction method: the use of a sliding window in order to better capture the context, and a repositioning method in order to better deal with vertical distortions. Competitive results were obtained when BHMMs and proposed methods were applied to well-known HTR databases. In particular, we ranked first at the Arabic Handwriting Recognition Competition organized during the 12th International Conference on Frontiers in Handwriting Recognition (ICFHR 2010), and at the Arabic Recognition Competition: Multi-font Multi-size Digitally Represented Text organized during the 11th International Conference on Document Analysis and Recognition (ICDAR 2011). In the last part of this thesis we propose a method for training BHMM classifiers using discriminative training criteria, instead of the conventionalMaximum Likelihood Estimation (MLE). Specifically, we propose a log-linear classifier for binary data based on the BHMM classifier. Parameter estimation of this model can be carried out using discriminative training criteria for log-linear models. In particular, we show the formulae for several MMI based criteria. Finally, we prove the equivalence between both classifiers, hence, discriminative training of a BHMM classifier can be carried out by obtaining its equivalent log-linear classifier. Reported results show that discriminative BHMMs clearly outperform conventional generative BHMMs. / Giménez Pastor, A. (2014). Bernoulli HMMs for Handwritten Text Recognition [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37978 / TESIS
37

Precontrol óptimo. Caracterización, análisis y técnicas de resolución

Giner Bosch, Vicent 26 January 2015 (has links)
El precontrol es una herramienta para el control de la calidad que tiene como objeto evaluar la aptitud de un proceso para producir piezas dentro de unas especificaciones dadas. Es usada, entre otros contextos, en la validación de la puesta a punto de procesos con ciclos de ejecución cortos. Basa su funcionamiento en la comparación de las sucesivas observaciones individuales muestreadas frente a los límites de tolerancia y los llamados límites de precontrol, y utiliza conteos acumulados para emitir un juicio sobre la validez del proceso. Es una técnica sencilla, rápida y fácil de aplicar. El hecho de que, en su versión original, la técnica del precontrol no tenga en cuenta la variabilidad natural del proceso objeto de monitorización, unido a la sencillez de su diseño, provocan que, bajo ciertas circunstancias, su comportamiento no sea tan eficaz como sería deseable, en términos de la tasa de falsa alarma y de la potencia para detectar desviaciones inaceptables, hasta el punto de que algunos autores rechazan su uso. En este sentido, existen en la literatura diversas propuestas encaminadas a mejorar el comportamiento de la técnica original mediante la modificación, en mayor o menor medida, de sus reglas de funcionamiento. En esta tesis doctoral se aborda la mejora del precontrol como herramienta para la cualificación de procesos, a través de la determinación óptima de los parámetros que rigen su comportamiento, utilizando técnicas de programación no lineal entera mixta. El objetivo es desarrollar una metodología para automatizar el proceso de elección del valor de los parámetros del precontrol, de manera que éste se ajuste lo mejor posible a los requerimientos del usuario. Este enfoque de Optimización, inédito en el precontrol, ha sido aplicado con éxito a otras técnicas de control de la calidad en las últimas décadas, permitiendo obtener mejores herramientas para la toma de decisiones. Para ello, en primer lugar se realiza una revisión exhaustiva de las diferentes propuestas existentes en la literatura en torno al precontrol. Posteriormente, se define el problema a resolver y se desarrolla un modelo de programación matemática específico para la obtención de los denominados planes de precontrol óptimos. Se realiza una completa experiencia numérica con software de optimización de propósito general, mediante la que se evidencia la eficacia del modelo propuesto y, al mismo tiempo, se pone de manifiesto la existencia de diferencias significativas entre los resultados proporcionados por los diferentes algoritmos tomados en consideración, debidas en parte a la doble naturaleza no lineal y entera del problema, así como la incapacidad de dichos algoritmos para garantizar la convergencia a un óptimo global, a causa de la existencia de no convexidades. Todo ello justifica el diseño de algoritmos específicos para la obtención de planes de precontrol óptimos, tarea que también se aborda en la presente tesis doctoral. Previamente, se realiza un estudio de las propiedades matemáticas del modelo de optimización construido, que permite ampliar el conocimiento sobre el problema del precontrol óptimo. Este conocimiento es empleado en la elaboración de un algoritmo exacto para la resolución de dicho problema, denominado OPCenum, el cual combina una estrategia enumerativa implícita con una búsqueda local basada en métodos de búsqueda de raíces sin uso de derivadas. El algoritmo es implementado y probado sobre la misma batería de ejemplos que conformaban la experiencia numérica anterior. Las pruebas revelan la eficacia y eficiencia del algoritmo OPCenum como método para la obtención de planes de precontrol óptimos a partir de unos requerimientos dados. La elaboración de una interfaz gráfica para hacer más accesible el algoritmo al usuario final, la adaptación del problema a funciones de distribución asimétricas y a ámbitos como el de la fiabilidad, así como el desarrollo de un enfoque paralelo al acometido aquí en el que se considere el precontrol como herramienta para validar la capacidad del proceso destacan como líneas futuras de investigación que surgen a partir de los resultados obtenidos en la presente tesis doctoral. / Giner Bosch, V. (2014). Precontrol óptimo. Caracterización, análisis y técnicas de resolución [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/46373 / TESIS
38

Application of multivariate image analysis to prostate cancer for improving the comprehension of the related physiological phenomena and the development and validation of new imaging biomarkers

Aguado Sarrió, Eric 07 January 2020 (has links)
[ES] El aumento de la esperanza de vida en la población con edad por encima de 50 años está generando un mayor número de casos detectados de cáncer de próstata (CaP). Por este motivo, los recursos se destinan al diagnóstico en etapas tempranas y al tratamiento efectivo. A pesar de la multitud de estudios basados en biomarcadores y discriminación histológica, es difícil diferenciar con efectividad los casos de CaP con baja agresividad de aquellos que progresarán y acabarán produciendo mortalidad o una disminución en la esperanza de vida del paciente. Con el objetivo de mejorar el diagnostico, localización y gradación de los tumores malignos, las técnicas de imagen por Resonancia Magnética (MRI) son las más adecuadas para el estudio del cáncer, proporcionando métodos de diagnóstico no-invasivos, sensibles y específicos, basados en secuencias morfológicas (T2w) y funcionales (perfusión de la sangre y difusión del agua). Las diferentes características y parámetros extraídos de estas secuencias, conocidos como biomarcadores de imagen, pueden evaluar las diferencias asociadas al desarrollo de los procesos tumorales, como los modelos farmacocinéticos para estudiar angiogénesis (perfusión) y los modelos mono- y bi-exponenciales para estudiar la caída de la señal en difusión con el objetivo de estudiar la celularización. Normalmente, estos biomarcadores de imagen se analizan de forma "univariante", sin aprovechar la información de las estructuras de correlación interna que existen entre ellos. Una manera de mejorar este análisis es mediante la aplicación de las técnicas estadísticas que ofrece el Análisis Multivariante de Imágenes (MIA), obteniendo estructuras (latentes) simplificadas que ayudan a entender la relación entre los parámetros (variables) y sus propios procesos fisiológicos, además de reducir la incertidumbre en la estimación de los biomarcadores. En esta tesis, se han desarrollado nuevos biomarcadores de imagen para perfusión y difusión con la aplicación de alguna de las herramientas de MIA como la Resolución Multivariante de Curvas con Mínimos Cuadrados Alternos (MCR-ALS), obteniendo parámetros que tienen interpretación clínica directa. A continuación, los métodos basados en mínimos cuadrados parciales (PLS) se aplicaron para estudiar la capacidad de clasificación de estos biomarcadores. En primer lugar, los biomarcadores de perfusión se utilizaron para la detección de tumores (control vs lesión). Posteriormente, la combinación de perfusión + difusión + T2 se empleó para estudiar agresividad tumoral con la aplicación de métodos PLS multibloque, en concreto (secuencial) SMB-PLS. Los resultados mostrados indican que los biomarcadores de perfusión obtenidos mediante MCR son mejores que los parámetros farmacocinéticos en la diferenciación de la lesión. Con lo que respecta al estudio de la agresividad tumoral, la combinación de los biomarcadores de difusión (empleando ambos métodos: modelos paramétricos y MCR) y los valores de T2w normalizados proporcionaron los mejores resultados. En conclusión, MIA se puede aplicar a las secuencias morfológicas y funcionales de resonancia magnética para mejorar el diagnóstico y el estudio de la agresividad de los tumores en próstata. Obteniendo nuevos parámetros cuantitativos y combinándolos con los biomarcadores más ampliamente utilizados en el ambiente clínico. / [CAT] El increment de la esperança de vida en la població per damunt dels 50 anys està generant un major nombre de casos detectats de càncer de pròstata (CaP). Per aquest motiu, els recursos es destinen al diagnòstic en etapes primerenques i al tractament efectiu. Tot i la multitud de estudis basats en biomarcadors y discriminació histològica, es difícil diferenciar amb efectivitat els casos de CaP que tenen baixa agressivitat dels que progressaran y acabaran produint mortalitat o una disminució en la esperança de vida del pacient. Amb el objectiu de millorar el diagnòstic, localització y gradació dels tumors malignes, les tècniques de imatge per Ressonància Magnètica (MRI) son els mètodes més adequats per al estudi del càncer, proporcionant metodologies de diagnòstic no-invasius, sensibles y específiques basades en seqüències morfològiques (T2w) y funcionals (perfusió de la sang y difusió del aigua). Les diferents característiques i paràmetres extrets de aquestes seqüències, coneguts com biomarcadors d'imatge, poden avaluar les diferències associades al desenvolupament dels processos tumorals. Primer, amb els models farmacocinétics per a estudiar angiogènesis (perfusió) y segon, amb els models mono- i bi-exponencials per a estudiar la caiguda de la senyal en difusió amb el objectiu de estudiar la cel·lularització. Normalment, aquests biomarcadors d'imatge s'analitzen de forma "univariant", sense aprofitar la informació de las estructures de correlació interna que existeixen entre ells. Una forma de millorar aquest anàlisis es mitjançant la aplicació de las tècniques estadístiques aportades pel Anàlisis Multivariant de Imatges (MIA), obtenint estructures (latents) simplificades què ajuden a entendre la relació entre els paràmetres (variables) i els seus processos fisiològics, a més de reduir la incertesa en la estimació dels biomarcadors. En aquesta tesis, s'han desenvolupat nous biomarcadors d'imatge per a perfusió i difusió amb la aplicació de alguna de las ferramentes de MIA com la Resolució Multivariant de Corbes i Mínims Quadrats Alterns (MCR-ALS), obtenint paràmetres què tenen interpretació clínica directa. A continuació, els mètodes basats en mínims quadrats parcials (PLS) s'han aplicat per a estudiar la capacitat de classificació d'aquests biomarcadors. En primer lloc, els biomarcadors de perfusió s'han utilitzat per a la detecció de tumors (control contra lesió). Posteriorment, la combinació de perfusió + difusió + T2 s'ha utilitzat per a estudiar agressivitat tumoral amb la aplicació de mètodes PLS multi-bloc, en concret (seqüencial) SMB-PLS. Els resultats mostren què els biomarcadors de perfusió obtinguts mitjançant MCR són millors què els paràmetres farmacocinètics en la diferenciació de la lesió. En lo què es refereix al estudi de la agressivitat tumoral, la combinació dels biomarcadors de difusió (utilitzant els dos mètodes: models paramètrics i MCR) i els valors de T2w normalitzats proporcionaren els millors resultats. En conclusió, MIA es pot aplicar a les seqüències morfològiques i funcionals de ressonància magnètica per a millorar el diagnòstic i el estudi de l'agressivitat dels tumors en pròstata. Obtenint nous paràmetres quantitatius y combinant-los amb els biomarcadors més utilitzats en el ambient clínic. / [EN] The increase in life expectancy and population with age higher than 50 years is producing a major number of detected cases of prostate cancer (PCa). For this reason, the resources are focused in the early diagnosis and effective treatment. In spite of multiple studies with histologic discriminant biomarkers, it is hard to clearly differentiate the low aggressiveness PCa cases from those that will progress and produce mortality or rather a decrease in the life expectancy. With the objective of improving the diagnosis, location and gradation of the malignant tumors, Magnetic Resonance Imaging (MRI) has come up as the most appropriate image acquisition technique for cancer studies, which provides a non-invasive, sensitive and specific diagnosis, based on morphological and functional (blood perfusion and water diffusion) sequences. The different characteristics and parameters extracted from these sequences, known as imaging biomarkers, can evaluate the different processes associated to tumor development, like pharmacokinetic modeling for angiogenesis assessment (perfusion) or mono- and bi-exponential signal decay modeling for cellularization (diffusion). Normally, these imaging biomarkers are analyzed in a "univariate" way, without taking advantage of the internal correlation structures among them. One way to improve this analysis is by applying Multivariate Image Analysis (MIA) statistical techniques, obtaining simplified (latent) structures that help to understand the relation between parameters (variables) and the inner physiological processes, moreover reducing the uncertainty in the estimation of the biomarkers. In this thesis, new imaging biomarkers are developed for perfusion and diffusion by applying MIA tools like Multivariate Curve Resolution Alternating Least Squares (MCR-ALS), obtaining parameters with direct clinical interpretation. Partial Least Squares (PLS) based methods are then used for studying the classification capability of these biomarkers. First, perfusion imaging biomarkers have been tested for tumor detection (control vs lesion). Then, diffusion + perfusion have been combined to study tumor aggressiveness by applying PLS-multiblock methods (SMB-PLS). The results showed that MCR-based perfusion biomarkers performed better than state-of-the-art pharmacokinetic parameters for lesion differentiation. Regarding the assessment of tumor aggressiveness, the combination of diffusion-based imaging biomarkers (using both the parametric models and MCR) and normalized T2-weighted measurements provided the best discriminating outcome, while perfusion was not needed as it did not supply additional information. In conclusion, MIA can be applied to morphologic and functional MRI to improve the diagnosis and aggressiveness assessment of prostate tumors by obtaining new quantitative parameters and combining them with state-of-the-art imaging biomarkers. / Aguado Sarrió, E. (2019). Application of multivariate image analysis to prostate cancer for improving the comprehension of the related physiological phenomena and the development and validation of new imaging biomarkers [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/134023 / TESIS
39

Statistical methods for time course microarray data

Nueda Roldán, María José 02 September 2009 (has links)
La tesis aborda el análisis estadístico de series simples y múltiples de experimentos de "Time Course Microarray" (TCM). El trabajo se centra en el desarrollo, aplicación y evaluación de métodos estadísticos específicos que consideran la problemática de este tipo de datos, tanto desde el punto de vista de selección de genes como del análisis funcional. Las técnicas desarrolladas se comparan con otros métodos del estado del arte actual evaluando las diferentes metodologías en términos de eficiencia y significado biológico de los resultados. En la tesis se incluye la descripción del funcionamiento de la tecnología de "microarrays" así como una revisión crítica de los métodos estadísticos aplicados a este tipo de datos mostrando los inconvenientes que surgen al aplicar métodos generales a series temporales de "microarrays" y justificando la necesidad de desarrollar nuevas técnicas para el análisis de TCM. La primera técnica desarrollada es maSigPro ("microarray Significant Profile") que usa análisis de regresión lineal para modelar la expresión génica y lleva a cabo una estrategia en dos pasos para seleccionar los genes diferencialmente expresados. La aplicación de la técnica multivariantes ASCA (ANOVA "Simultaneous Component Analysis") a datos de TCM da como resultado el método ASCA-genes que combina la exploración multivariante de datos con un procedimiento de selección para identificación de genes con cambios relevantes. El método ASCA es también usado para crear una estrategia de filtrado de datos de gran utilidad para eliminar el alto nivel de ruido estructural de los datos de microarrays. Por último, se desarrollan métodos estadísticos para una evaluación directa e integrada de las alteraciones que pueden sufrir las funciones génicas en TCM. Para este propósito, se ha adaptado las técnicas maSigPro, ASCA y PCA incorporándoles información funcional obteniendo las metodologías maSigFun, PCA-maSigFun y ASCA-functional. / Nueda Roldán, MJ. (2009). Statistical methods for time course microarray data [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6061 / Palancia
40

Advances on the Transcription of Historical Manuscripts based on Multimodality, Interactivity and Crowdsourcing

Granell Romero, Emilio 01 September 2017 (has links)
Natural Language Processing (NLP) is an interdisciplinary research field of Computer Science, Linguistics, and Pattern Recognition that studies, among others, the use of human natural languages in Human-Computer Interaction (HCI). Most of NLP research tasks can be applied for solving real-world problems. This is the case of natural language recognition and natural language translation, that can be used for building automatic systems for document transcription and document translation. Regarding digitalised handwritten text documents, transcription is used to obtain an easy digital access to the contents, since simple image digitalisation only provides, in most cases, search by image and not by linguistic contents (keywords, expressions, syntactic or semantic categories). Transcription is even more important in historical manuscripts, since most of these documents are unique and the preservation of their contents is crucial for cultural and historical reasons. The transcription of historical manuscripts is usually done by paleographers, who are experts on ancient script and vocabulary. Recently, Handwritten Text Recognition (HTR) has become a common tool for assisting paleographers in their task, by providing a draft transcription that they may amend with more or less sophisticated methods. This draft transcription is useful when it presents an error rate low enough to make the amending process more comfortable than a complete transcription from scratch. Thus, obtaining a draft transcription with an acceptable low error rate is crucial to have this NLP technology incorporated into the transcription process. The work described in this thesis is focused on the improvement of the draft transcription offered by an HTR system, with the aim of reducing the effort made by paleographers for obtaining the actual transcription on digitalised historical manuscripts. This problem is faced from three different, but complementary, scenarios: · Multimodality: The use of HTR systems allow paleographers to speed up the manual transcription process, since they are able to correct on a draft transcription. Another alternative is to obtain the draft transcription by dictating the contents to an Automatic Speech Recognition (ASR) system. When both sources (image and speech) are available, a multimodal combination is possible and an iterative process can be used in order to refine the final hypothesis. · Interactivity: The use of assistive technologies in the transcription process allows one to reduce the time and human effort required for obtaining the actual transcription, given that the assistive system and the palaeographer cooperate to generate a perfect transcription. Multimodal feedback can be used to provide the assistive system with additional sources of information by using signals that represent the whole same sequence of words to transcribe (e.g. a text image, and the speech of the dictation of the contents of this text image), or that represent just a word or character to correct (e.g. an on-line handwritten word). · Crowdsourcing: Open distributed collaboration emerges as a powerful tool for massive transcription at a relatively low cost, since the paleographer supervision effort may be dramatically reduced. Multimodal combination allows one to use the speech dictation of handwritten text lines in a multimodal crowdsourcing platform, where collaborators may provide their speech by using their own mobile device instead of using desktop or laptop computers, which makes it possible to recruit more collaborators. / El Procesamiento del Lenguaje Natural (PLN) es un campo de investigación interdisciplinar de las Ciencias de la Computación, Lingüística y Reconocimiento de Patrones que estudia, entre otros, el uso del lenguaje natural humano en la interacción Hombre-Máquina. La mayoría de las tareas de investigación del PLN se pueden aplicar para resolver problemas del mundo real. Este es el caso del reconocimiento y la traducción del lenguaje natural, que se pueden utilizar para construir sistemas automáticos para la transcripción y traducción de documentos. En cuanto a los documentos manuscritos digitalizados, la transcripción se utiliza para facilitar el acceso digital a los contenidos, ya que la simple digitalización de imágenes sólo proporciona, en la mayoría de los casos, la búsqueda por imagen y no por contenidos lingüísticos. La transcripción es aún más importante en el caso de los manuscritos históricos, ya que la mayoría de estos documentos son únicos y la preservación de su contenido es crucial por razones culturales e históricas. La transcripción de manuscritos históricos suele ser realizada por paleógrafos, que son personas expertas en escritura y vocabulario antiguos. Recientemente, los sistemas de Reconocimiento de Escritura (RES) se han convertido en una herramienta común para ayudar a los paleógrafos en su tarea, la cual proporciona un borrador de la transcripción que los paleógrafos pueden corregir con métodos más o menos sofisticados. Este borrador de transcripción es útil cuando presenta una tasa de error suficientemente reducida para que el proceso de corrección sea más cómodo que una completa transcripción desde cero. Por lo tanto, la obtención de un borrador de transcripción con una baja tasa de error es crucial para que esta tecnología de PLN sea incorporada en el proceso de transcripción. El trabajo descrito en esta tesis se centra en la mejora del borrador de transcripción ofrecido por un sistema RES, con el objetivo de reducir el esfuerzo realizado por los paleógrafos para obtener la transcripción de manuscritos históricos digitalizados. Este problema se enfrenta a partir de tres escenarios diferentes, pero complementarios: · Multimodalidad: El uso de sistemas RES permite a los paleógrafos acelerar el proceso de transcripción manual, ya que son capaces de corregir en un borrador de la transcripción. Otra alternativa es obtener el borrador de la transcripción dictando el contenido a un sistema de Reconocimiento Automático de Habla. Cuando ambas fuentes están disponibles, una combinación multimodal de las mismas es posible y se puede realizar un proceso iterativo para refinar la hipótesis final. · Interactividad: El uso de tecnologías asistenciales en el proceso de transcripción permite reducir el tiempo y el esfuerzo humano requeridos para obtener la transcripción correcta, gracias a la cooperación entre el sistema asistencial y el paleógrafo para obtener la transcripción perfecta. La realimentación multimodal se puede utilizar en el sistema asistencial para proporcionar otras fuentes de información adicionales con señales que representen la misma secuencia de palabras a transcribir (por ejemplo, una imagen de texto, o la señal de habla del dictado del contenido de dicha imagen de texto), o señales que representen sólo una palabra o carácter a corregir (por ejemplo, una palabra manuscrita mediante una pantalla táctil). · Crowdsourcing: La colaboración distribuida y abierta surge como una poderosa herramienta para la transcripción masiva a un costo relativamente bajo, ya que el esfuerzo de supervisión de los paleógrafos puede ser drásticamente reducido. La combinación multimodal permite utilizar el dictado del contenido de líneas de texto manuscrito en una plataforma de crowdsourcing multimodal, donde los colaboradores pueden proporcionar las muestras de habla utilizando su propio dispositivo móvil en lugar de usar ordenadores, / El Processament del Llenguatge Natural (PLN) és un camp de recerca interdisciplinar de les Ciències de la Computació, la Lingüística i el Reconeixement de Patrons que estudia, entre d'altres, l'ús del llenguatge natural humà en la interacció Home-Màquina. La majoria de les tasques de recerca del PLN es poden aplicar per resoldre problemes del món real. Aquest és el cas del reconeixement i la traducció del llenguatge natural, que es poden utilitzar per construir sistemes automàtics per a la transcripció i traducció de documents. Quant als documents manuscrits digitalitzats, la transcripció s'utilitza per facilitar l'accés digital als continguts, ja que la simple digitalització d'imatges només proporciona, en la majoria dels casos, la cerca per imatge i no per continguts lingüístics (paraules clau, expressions, categories sintàctiques o semàntiques). La transcripció és encara més important en el cas dels manuscrits històrics, ja que la majoria d'aquests documents són únics i la preservació del seu contingut és crucial per raons culturals i històriques. La transcripció de manuscrits històrics sol ser realitzada per paleògrafs, els quals són persones expertes en escriptura i vocabulari antics. Recentment, els sistemes de Reconeixement d'Escriptura (RES) s'han convertit en una eina comuna per ajudar els paleògrafs en la seua tasca, la qual proporciona un esborrany de la transcripció que els paleògrafs poden esmenar amb mètodes més o menys sofisticats. Aquest esborrany de transcripció és útil quan presenta una taxa d'error prou reduïda perquè el procés de correcció siga més còmode que una completa transcripció des de zero. Per tant, l'obtenció d'un esborrany de transcripció amb un baixa taxa d'error és crucial perquè aquesta tecnologia del PLN siga incorporada en el procés de transcripció. El treball descrit en aquesta tesi se centra en la millora de l'esborrany de la transcripció ofert per un sistema RES, amb l'objectiu de reduir l'esforç realitzat pels paleògrafs per obtenir la transcripció de manuscrits històrics digitalitzats. Aquest problema s'enfronta a partir de tres escenaris diferents, però complementaris: · Multimodalitat: L'ús de sistemes RES permet als paleògrafs accelerar el procés de transcripció manual, ja que són capaços de corregir un esborrany de la transcripció. Una altra alternativa és obtenir l'esborrany de la transcripció dictant el contingut a un sistema de Reconeixement Automàtic de la Parla. Quan les dues fonts (imatge i parla) estan disponibles, una combinació multimodal és possible i es pot realitzar un procés iteratiu per refinar la hipòtesi final. · Interactivitat: L'ús de tecnologies assistencials en el procés de transcripció permet reduir el temps i l'esforç humà requerits per obtenir la transcripció real, gràcies a la cooperació entre el sistema assistencial i el paleògraf per obtenir la transcripció perfecta. La realimentació multimodal es pot utilitzar en el sistema assistencial per proporcionar fonts d'informació addicionals amb senyals que representen la mateixa seqüencia de paraules a transcriure (per exemple, una imatge de text, o el senyal de parla del dictat del contingut d'aquesta imatge de text), o senyals que representen només una paraula o caràcter a corregir (per exemple, una paraula manuscrita mitjançant una pantalla tàctil). · Crowdsourcing: La col·laboració distribuïda i oberta sorgeix com una poderosa eina per a la transcripció massiva a un cost relativament baix, ja que l'esforç de supervisió dels paleògrafs pot ser reduït dràsticament. La combinació multimodal permet utilitzar el dictat del contingut de línies de text manuscrit en una plataforma de crowdsourcing multimodal, on els col·laboradors poden proporcionar les mostres de parla utilitzant el seu propi dispositiu mòbil en lloc d'utilitzar ordinadors d'escriptori o portàtils, la qual cosa permet ampliar el nombr / Granell Romero, E. (2017). Advances on the Transcription of Historical Manuscripts based on Multimodality, Interactivity and Crowdsourcing [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86137 / TESIS

Page generated in 0.1715 seconds