61 |
Contribución al estudio de los cambios de uso del suelo en la Comunidad ValencianaCalafat Marzal, Maria Consuelo 16 January 2020 (has links)
[CA] A la Comunitat Valenciana s’han produït en les últimes dècades un important desenvolupament econòmic simultàniament amb profunds canvis institucionals. Des de la incorporació de Espanya a la Unió Europea, el sector agrari valencià ha incrementat la seva competitivitat, y la economia en el seu conjunt s’ha beneficiat de les elevades inversions baix la protecció de les subvencions europees (Regió Objectiu 1).
Aquest canvi a afectat a les polítiques agràries, ambientals e inclús al propi marc legislatiu (descentralització de l’Estat i assumpció de competències exclusives per la Comunitat Valenciana e ingrés en la Unió Europea) però també a les polítiques agràries (Reforma de la PAC, Agenda 2000, etc.) y liberalització dels intercanvis comercials amb països tercers (Organització Mundial del Comerç).
Tot açò ha suposat una creixent i diversificada competència per l’ús dels factors de producció escassos (sol, aigua i treball) i, en conseqüència, ha provocat importants i ràpids canvis en el paper que desenvolupa la agricultura en la economia valenciana.
La adaptació dels agricultors als nous escenaris ha segut diversa reflectint una gran heterogeneïtat. El anàlisis de les estratègies seguides per els agricultors en resposta als canvis de les polítiques, als mercats i la competència intersectorial per els usos del sol es de gran interès per a comprendre la lògica interna del sistema.
El treball que presentem proposa una tipologia dels agricultors de la Comunitat Valenciana establerta d’acord amb les variables que han provocat els majors canvis en l’ús del sol.
Per tot açò, hem seleccionat municipis representatius i hem analitzat les estratègies de les categories d’agricultors tipo en els canvis de ús del sol. El anàlisi de les estratègies dels agricultors, les seves pràctiques i actituds, ens han permès conèixer la diversitat real de estratègies dels agricultors que corresponen a diferents actituds i sensibilitats front als usos del sol agrari i el medi ambient. / [ES] En la Comunidad Valenciana se ha producido en las últimas décadas un importante desarrollo
económico simultáneo a profundos cambios institucionales. Desde la incorporación de España a
la Unión Europea, el sector agrario valenciano ha aumentado su competitividad, y la economía en
su conjunto se ha beneficiado de las elevadas inversiones bajo la protección de las subvenciones
europeas (Región Objetivo 1).
El cambio ha afectado a las políticas agrarias, ambientales e incluso al propio marco legislativo
(descentralización del estado y asunción de competencias exclusivas por la Comunidad Valenciana
e ingreso en la Unión Europea) pero también a las políticas agrarias (Reforma de la PAC, Agenda
2000, etc.) y liberalización de los intercambios comerciales con países terceros (Organización
Mundial del Comercio).
Ello ha supuesto una creciente y diversificada competencia por el uso de los factores de
producción escasos (suelo, agua y trabajo) y, en consecuencia, ha provocado importantes y
rápidos cambios en el papel que desempeña la agricultura en la economía valenciana.
La adaptación de los agricultores al nuevo escenario ha sido diversa reflejando una gran
heterogeneidad. El análisis de las estrategias seguidas por los agricultores en respuesta a los
cambios de las políticas, los mercados y la competencia intersectorial por los usos del suelo es de
gran interés para comprender la lógica interna del sistema.
El trabajo que presentamos propone una tipología de los agricultores de la Comunidad
Valenciana establecida de acuerdo con las variables que han provocado los mayores cambios en el
uso el suelo.
Por ello, hemos seleccionado municipios representativos y analizado las estrategias de los
categorías de agricultores tipo en los cambios de uso del suelo. El análisis de las estrategias de los
agricultores, sus prácticas y actitudes, nos ha permitido conocer la diversidad real de estrategias de
los agricultores que responden a diferentes actitudes y sensibilidades hacia los usos del suelo
agrario y del medio ambiente. / [EN] An outstanding economic development has taken place in the Comunidad Valencia, simultaneously with several deep institutional changes. Since the Spanish entry in the European Community, the agrarian sector of Valencia has increased its competitiveness, and the economy as a whole has profited of the high investments performed under the shelter of the European subsidies (Region Obj. 1)
This institutional change has affected the agricultural policies (CAP reform, Agenda 2000, etc.), the environmental policies, and even the actual legislative framework (State decentralisation, assumption of exclusive competences by the Comunidad Valenciana and entry in the European Community), and also the liberalisation of the trade exchanges with Third Countries (WTO).
All of the above has given rise to a growing and diversified competition for the scarce means of production (land, water and labour) and, as a consequence, has led to rapid, important changes in the role played by the agriculture in the Valencian economy.
The farmers adaptation to the new scenario has been diverse, reflecting a great heterogeneity. The analysis of the strategies followed by farmers as an answer to changes in policies, in markets, and in those issues related to intersectorial competition in land use, has got a notable interest for the understanding of the internal logic of the system.
The paper that we present here is comprehended in a wider research project carried out for the JRC (Spatial Impact of Rural Environments EU Policies: A regional Comparative Analysis of Land Use Changes. Ispra 2001), in which we propose a typology of the Mediterranean agricultures in the Comunidad Valenciana, according to the most important variables affecting land use changes.
Thus, we are able to select a few representative municipalities for each category, in which we carry out an analysis of the strategies adopted by several categories of farmers as an answer to changes in the independent variable. The analysis of the farmers opinions, their practices and their attitudes, allows for checking the existence of a real diversity of strategies between farmers, that may correspond to different attitudes and sensitivities towards the land and environment management. / Calafat Marzal, MC. (2004). Contribución al estudio de los cambios de uso del suelo en la Comunidad Valenciana [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/135294
|
62 |
Advances in Document Layout AnalysisBosch Campos, Vicente 05 March 2020 (has links)
[EN] Handwritten Text Segmentation (HTS) is a task within the Document Layout Analysis field that aims to detect and extract the different page regions of interest found in handwritten documents. HTS remains an active topic, that has gained importance with the years, due to the increasing demand to provide textual access to the myriads of handwritten document collections held by archives and libraries.
This thesis considers HTS as a task that must be tackled in two specialized phases: detection and extraction. We see the detection phase fundamentally as a recognition problem that yields the vertical positions of each region of interest as a by-product. The extraction phase consists in calculating the best contour coordinates of the region using the position information provided by the detection phase.
Our proposed detection approach allows us to attack both higher level regions: paragraphs, diagrams, etc., and lower level regions like text lines. In the case of text line detection we model the problem to ensure that the system's yielded vertical position approximates the fictitious line that connects the lower part of the grapheme bodies in a text line, commonly known as the
baseline.
One of the main contributions of this thesis, is that the proposed modelling approach allows us to include prior information regarding the layout of the documents being processed. This is performed via a Vertical Layout Model (VLM).
We develop a Hidden Markov Model (HMM) based framework to tackle both region detection and classification as an integrated task and study the performance and ease of use of the proposed approach in many corpora. We review the modelling simplicity of our approach to process regions at different levels of information: text lines, paragraphs, titles, etc. We study the impact of adding deterministic and/or probabilistic prior information and restrictions via the VLM that our approach provides.
Having a separate phase that accurately yields the detection position (base- lines in the case of text lines) of each region greatly simplifies the problem that must be tackled during the extraction phase. In this thesis we propose to use a distance map that takes into consideration the grey-scale information in the image. This allows us to yield extraction frontiers which are equidistant to the adjacent text regions. We study how our approach escalates its accuracy proportionally to the quality of the provided detection vertical position. Our extraction approach gives near perfect results when human reviewed baselines are provided. / [ES] La Segmentación de Texto Manuscrito (STM) es una tarea dentro del campo de investigación de Análisis de Estructura de Documentos (AED) que tiene como objetivo detectar y extraer las diferentes regiones de interés de las páginas que se encuentran en documentos manuscritos. La STM es un tema de investigación activo que ha ganado importancia con los años debido a la creciente demanda de proporcionar acceso textual a las miles de colecciones de documentos manuscritos que se conservan en archivos y bibliotecas.
Esta tesis entiende la STM como una tarea que debe ser abordada en dos fases especializadas: detección y extracción. Consideramos que la fase de detección es, fundamentalmente, un problema de clasificación cuyo subproducto son las posiciones verticales de cada región de interés. Por su parte, la fase de extracción consiste en calcular las mejores coordenadas de contorno de la región utilizando la información de posición proporcionada por la fase de detección.
Nuestro enfoque de detección nos permite atacar tanto regiones de alto nivel (párrafos, diagramas¿) como regiones de nivel bajo (líneas de texto principalmente). En el caso de la detección de líneas de texto, modelamos el problema para asegurar que la posición vertical estimada por el sistema se aproxime a la línea ficticia que conecta la parte inferior de los cuerpos de los grafemas en una línea de texto, comúnmente conocida como línea base. Una de las principales aportaciones de esta tesis es que el enfoque de modelización propuesto nos permite incluir información conocida a priori sobre la disposición de los documentos que se están procesando. Esto se realiza mediante un Modelo de Estructura Vertical (MEV).
Desarrollamos un marco de trabajo basado en los Modelos Ocultos de Markov (MOM) para abordar tanto la detección de regiones como su clasificación de forma integrada, así como para estudiar el rendimiento y la facilidad de uso del enfoque propuesto en numerosos corpus. Así mismo, revisamos la simplicidad del modelado de nuestro enfoque para procesar regiones en diferentes niveles de información: líneas de texto, párrafos, títulos, etc. Finalmente, estudiamos el impacto de añadir información y restricciones previas deterministas o probabilistas a través de el MEV propuesto que nuestro enfoque proporciona.
Disponer de un método independiente que obtiene con precisión la posición de cada región detectada (líneas base en el caso de las líneas de texto) simplifica enormemente el problema que debe abordarse durante la fase de extracción. En esta tesis proponemos utilizar un mapa de distancias que tiene en cuenta la información de escala de grises de la imagen. Esto nos permite obtener fronteras de extracción que son equidistantes a las regiones de texto adyacentes. Estudiamos como nuestro enfoque aumenta su precisión de manera proporcional a la calidad de la detección y descubrimos que da resultados casi perfectos cuando se le proporcionan líneas de base revisadas por
humanos. / [CA] La Segmentació de Text Manuscrit (STM) és una tasca dins del camp d'investigació d'Anàlisi d'Estructura de Documents (AED) que té com a objectiu detectar I extraure les diferents regions d'interès de les pàgines que es troben en documents manuscrits. La STM és un tema d'investigació actiu que ha guanyat importància amb els anys a causa de la creixent demanda per proporcionar accés textual als milers de col·leccions de documents manuscrits que es conserven en arxius i biblioteques.
Aquesta tesi entén la STM com una tasca que ha de ser abordada en dues fases especialitzades: detecció i extracció. Considerem que la fase de detecció és, fonamentalment, un problema de classificació el subproducte de la qual són les posicions verticals de cada regió d'interès. Per la seva part, la fase d'extracció consisteix a calcular les millors coordenades de contorn de la regió utilitzant la informació de posició proporcionada per la fase de detecció.
El nostre enfocament de detecció ens permet atacar tant regions d'alt nivell (paràgrafs, diagrames ...) com regions de nivell baix (línies de text principalment). En el cas de la detecció de línies de text, modelem el problema per a assegurar que la posició vertical estimada pel sistema s'aproximi a la línia fictícia que connecta la part inferior dels cossos dels grafemes en una línia de
text, comunament coneguda com a línia base.
Una de les principals aportacions d'aquesta tesi és que l'enfocament de modelització proposat ens permet incloure informació coneguda a priori sobre la disposició dels documents que s'estan processant. Això es realitza mitjançant un Model d'Estructura Vertical (MEV).
Desenvolupem un marc de treball basat en els Models Ocults de Markov (MOM) per a abordar tant la detecció de regions com la seva classificació de forma integrada, així com per a estudiar el rendiment i la facilitat d'ús de l'enfocament proposat en nombrosos corpus. Així mateix, revisem la simplicitat del modelatge del nostre enfocament per a processar regions en diferents nivells d'informació: línies de text, paràgrafs, títols, etc. Finalment, estudiem l'impacte d'afegir informació i restriccions prèvies deterministes o probabilistes a través del MEV que el nostre mètode proporciona.
Disposar d'un mètode independent que obté amb precisió la posició de cada regió detectada (línies base en el cas de les línies de text) simplifica enormement el problema que ha d'abordar-se durant la fase d'extracció. En aquesta tesi proposem utilitzar un mapa de distàncies que té en compte la informació d'escala de grisos de la imatge. Això ens permet obtenir fronteres d'extracció que són equidistants de les regions de text adjacents. Estudiem com el nostre enfocament augmenta la seva precisió de manera proporcional a la qualitat de la detecció i descobrim que dona resultats quasi perfectes quan se li proporcionen línies de base revisades per humans. / Bosch Campos, V. (2020). Advances in Document Layout Analysis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/138397
|
63 |
Secuenciación de máquinas con necesidad de ajustes y recursos adicionales.Yepes Borrero, Juan Camilo 10 January 2021 (has links)
[ES] En esta tesis doctoral se estudia el problema de secuenciación de máquinas paralelas no relacionadas con necesidad de ajustes y recursos adicionales asignados en los ajustes. En este problema, se tiene un grupo de tareas (también llamadas trabajos), donde cada una debe ser procesada en una de las máquinas paralelas disponibles. Para procesar una tarea después de otra en la misma máquina, se debe hacer un ajuste en la máquina. Se asume que estos ajustes deben ser realizados por un recurso adicional limitado (por ejemplo, operarios). En esta tesis doctoral se estudian dos variantes del problema planteado: 1) considerando el problema con el único objetivo de minimizar el tiempo máximo de finalización de todos los trabajos (makespan), y 2) considerando el problema multi-objetivo minimizando simultáneamente el makespan y el consumo máximo de recursos adicionales.
Inicialmente, se realiza una completa revisión bibliográfica sobre estudios relacionados con el problema planteado. En esta revisión se detecta que, a pesar de existir numerosos estudios de secuenciación de máquinas paralelas, no muchos de estos estudios tienen en cuenta recursos adicionales. Posteriormente, para introducir el problema a estudiar antes de plantear métodos de resolución, se realiza una breve explicación de los principales problemas de secuenciación de máquinas paralelas.
El problema de un solo objetivo está clasificado como NP-Hard. Por ello, para abordar su resolución se han diseñado e implementado heurísticas y metaheurísticas siguiendo dos enfoques diferentes. Para el primer enfoque, que ignora la información sobre el consumo de recursos adicionales en la fase constructiva, se adaptan dos de los mejores algoritmos existentes en la literatura para el problema de máquinas paralelas con ajustes sin necesidad de recursos adicionales. En el segundo enfoque, que sí tiene en cuenta la información sobre el consumo de recursos adicionales en la fase constructiva, se proponen nuevos algoritmos heurísticos y metaheurísticos para resolver el problema. Tras analizar los resultados de los experimentos computacionales realizados, concluimos que hay diferencias entre los dos enfoques, siendo significativamente mejor el enfoque que tiene en cuenta la información sobre los recursos adicionales.
Al igual que en el caso de un solo objetivo, la complejidad del problema multi-objetivo obliga a presentar algoritmos heurísticos o metaheurísticos para resolverlo. En esta tesis se presenta un nuevo algoritmo metaheurístico multi-objetivo eficiente para encontrar buenas aproximaciones a la frontera de Pareto del problema. Además, se adaptaron otros tres algoritmos que han mostrado buenos resultados en diferentes estudios de problemas de secuenciación de máquinas multi-objetivo. Después de realizar experimentos computacionales exhaustivos, concluimos que el nuevo algoritmo propuesto en esta tesis es significativamente mejor que los otros tres algoritmos existentes, y que se han adaptado para resolver este problema. / [CAT] En aquesta tesi doctoral s'estudia el problema de seqüenciació de màquines paral·leles no relacionades amb necessitat d'ajustos i recursos addicionals assignats en els ajustos. En aquest problema, es tenen un grup de tasques (també anomenades treballs), on cadascuna ha de ser processada en una de les màquines paral·leles disponibles. Per processar una tasca després d'una altra en la mateixa màquina, s'ha de fer un ajustament en la màquina. S'assumeix que aquests ajustos en les màquines per a processar una tasca després del processament d'una altra, han de ser realitzats per un recurs addicional limitat (per exemple, operaris). En aquesta tesi doctoral s'estudien dos variants al problema plantejat: 1) considerant el problema com l'únic objectiu de minimitzar el temps màxim de finalització de tots els treballs (makespan), i 2) considerant el problema multi-objectiu minimitzant simultàniament el makespan i el consum màxim de recursos addicionals.
Inicialment, es realitza una completa revisió bibliogràfica sobre estudis relacionats amb el problema plantejat. En esta revisió es detecta que, tot i existir nombrosos estudis de seqüenciació de màquines paral·leles, hi ha molts pocs que tenen en compte recursos addicionals. Posteriorment, per introduir el problema a estudiar abans de plantejar mètodes de resolució, es realitza una breu explicació dels principals problemes de seqüenciació de màquines paral·leles.
El problema d'un sol objectiu està classificat com NP-Hard. Per això, per abordar la seua resolució s'han dissenyat i implementat heurístiques y metaheurístiques seguint dos enfocs diferents. El primer enfoc ignora la informació sobre el consum de recursos en la fase constructiva, adaptant dos dels millors algoritmes existents en la literatura per al problema de seqüenciació de màquines paral·leles amb ajustaments sense necessitat de recursos. Per al segon enfoc si es té en compte la informació sobre el consum de recursos en la fase constructiva. Després d'analitzar els resultats dels experiments computacionals realitzats, concloem que hi ha diferencies entre els dos enfocs, sent significativament millor l'enfoc que té en compte la informació sobre el recursos.
De la mateixa manera que en el cas d'un sol objectiu, la complexitat del problema multi-objectiu obliga a presentar algoritmes heurístics o metaheurístics per a resoldre-ho. En aquesta tesi es presenta un nou algoritme metaheurístic multi-objectiu eficient per trobar bones aproximacions a la frontera de Pareto del problema. A més, es van adaptar altres tres algoritmes que han mostrat bons resultats en diferents estudis de problemes de seqüenciació de màquines multi-objectiu. Després de realitzar experiments computacionals exhaustius, concloem que el nou algoritme proposat en aquesta tesi és significativament millor que els altres tres algoritmes existents i que s'han adaptat per resoldre aquest problema. / [EN] In this thesis we study the unrelated parallel machine scheduling problem with setup times and additional limited resources in the setups. In this problem, we have a group of tasks (also called jobs), where each one must be processed on one of the available parallel machines. To process one job after another on the same machine, a setup must be made on the machine. It is assumed that these setups on machines must be made by a limited additional resource (eg, operators). In this thesis two variants of the problem are studied: 1) considering the problem with the objective of minimizing the maximum completion time of all jobs (makespan), and 2) considering the multi-objective problem, minimizing the makespan and the maximum consumption of additional resources.
Initially, a complete literature review is carried out on studies related to the problem addressed in this thesis. This review finds that despite numerous parallel machine scheduling studies, there are very few that take into account additional resources. Subsequently, to introduce the problem addressed before proposing resolution methods, a brief explanation of the main parallel machines scheduling problems is made.
The problem with a single objective is classified as NP-Hard. Therefore, to solve it, heuristics and metaheuristics have been designed and implemented following two different approaches. For the first approach, which ignores the information on the consumption of resources in the construction phase, two of the best algorithms existing in the literature for the problem of parallel machines with setups without additional resources are adapted. For the second approach, which does take into account information on the consumption of resources in the construction phase, new heuristic and metaheuristic algorithms are proposed to solve the problem. Following the results of the computational experiments, we conclude that there are differences between the two approaches, the approach that takes into account the information on resources being significantly better.
As in the case of a single objective, the complexity of the multi-objective problem requires the formulation of heuristic or metaheuristic algorithms to solve it. In this thesis, a new efficient multi-objective metaheuristic algorithm is presented to find good approximations to the Pareto front of the problem. In addition, three other algorithms that have shown good results in different studies of multi-objective machine scheduling problems were adapted. After carrying out exhaustive computational experiments, we concluded that the new algorithm proposed in this thesis is significantly better than the other three adapted algorithms. / Yepes Borrero, JC. (2020). Secuenciación de máquinas con necesidad de ajustes y recursos adicionales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/158742
|
64 |
Caracterización del emprendimiento agrario en España y análisis de su ecosistema. Identificación de retos y oportunidadesFerrándiz Molina, Julia 06 September 2021 (has links)
[ES] La agricultura española se encuentra en un momento estratégico para convertirse en un sector que lidere el desarrollo hacia un nuevo modelo socioeconómico más emprendedor y sostenible.
Esta tesis trata de ser una aproximación al entendimiento del fenómeno del emprendimiento agrario, pese a que todavía es un campo de estudio joven, con el objetivo de fomentarlo. Para ello, se ha realizado una triangulación de metodologías cualitativas y cuantitativas que analizan de manera integral la complejidad del fenómeno emprendedor en este contexto; desde la propia figura del emprendedor, las características de la empresa y el ecosistema que los engloba.
Los resultados indican que existen acciones de mejora en cuanto a la autopercepción de los emprendedores agrarios, su formación empresarial y las redes que tienen con otros emprendedores, así como potenciar sus valores positivos hacia el emprendimiento. En cuanto a los componentes del ecosistema, es importante facilitar el acceso al mercado, a través de la financiación y mitigando los problemas estructurales y regulativos del sector, así como el éxodo rural puede tener un impacto para la retención de recursos necesarios. La innovación en nuevos productos con mayor valor añadido y la incorporación de nuevas tecnologías son claves para mejorar las iniciativas emprendedoras agrarias. / [CA] La agricultura espanyola es troba en un moment estratègic per convertir-se en un sector que lidere un desenvolupament a un nou model socioeconòmic més emprenedor i sostenible.
Aquesta tesi tracta de ser una aproximació a l'enteniment del fenòmen de l'emprendiment agrari, encara que es tracta d'un camp d'estudi jove, amb l'objectiu de fomentar-lo. Per a aquesta finalitat, s'ha realitzat una triangulació de metodologies qualitatives i quantitativas que analitzen integralment la complexitat del fenòmen emprenedor en aquest context; des de la pròpia figura de l'emprenedor, les característiques de l'empresa i l'ecosistema que els engloba.
Els resultats indiquen que hi ha accions de millora en quan a l'autopercepció dels emprenedors agraris, la seua formació empresarial i les nexes que tenen amb altres emprenedors, així com potenciar els seus valors positius cap a l'emprenedoria. En quant als components de l'ecosistema, és important facilitar l'accés al mercat, mitjançant el finançament i mitigant els problemes estructurals i regulatius del sector, així com l'èxit rural, que pot tenir un impacte en la retenció de recursos necessaris. La innovació en nous productes amb major valor afegit i la incorporació de noves tecnologies son clau per millorar les iniciatives emprenedores agràries. / [EN] Spanish agriculture has a opportunity to become a strategic sector to foster a new, more entrepreneurial and sustainable socio-economic model.
This research aims to approach agricultural entrepreneurship phenomenon with the aim of promoting it, despite the fact that it is still a young field of study, to this end, qualitative and quantitative methodologies triangulation has been made in order to comprehensively analyse the complexity of the entrepreneurial process in this context; from the figure of the entrepreneur, the company characteristics and the ecosystem that encompasses them.
The results indicate that there are actions for improvement regarding the self-perception of agricultural entrepreneurs, their business training and their networks with other entrepreneurs, as well as enhancing their positive values towards entrepreneurship. Regarding the ecosystem components, it is important to facilitate market access, through financing and mitigating the structural and regulatory problems of the sector, as well as the rural exodus, due to necessary resource retention. Innovation in new products with greater added value and new technologies incorporation is key to improving agricultural entrepreneurial initiatives. / Ferrándiz Molina, J. (2021). Caracterización del emprendimiento agrario en España y análisis de su ecosistema. Identificación de retos y oportunidades [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/171598
|
65 |
Análisis experimental del fresado de materiales compuestos reforzados con fibra de basaltoNavarro Mas, María Dolores 29 November 2021 (has links)
[ES] Los materiales compuestos reforzados con fibra son ampliamente utilizados en diversos sectores, como el aeroespacial y el de automoción. Tras su conformado, estos materiales necesitan procesos de mecanizado para eliminar el material sobrante y facilitar la unión entre piezas. Debido a la naturaleza heterogénea y la anisotropía de estos materiales, su comportamiento ante el mecanizado es diferente que los metálicos. Las fibras abrasivas provocan un rápido desgaste de la herramienta y, además, la aparición del delaminado puede hacer necesario el reprocesado o rechazo de las piezas. El delaminado es un defecto que provoca la separación de capas del material compuesto y hace que la pieza presente un aspecto deshilachado en el borde mecanizado porque la herramienta dobla las fibras en vez de cortarlas, además de poder producir un daño superficial en la pieza.
En esta tesis se ha abordado el estudio experimental del fresado de materiales compuestos reforzados con fibra de basalto, en concreto, en la operación de contorneado. En el mecanizado de este material se ha estudiado el desgaste de la herramienta, el acabado superficial y el delaminado, analizando la influencia de los parámetros de corte (velocidad, avance y profundidad de pasada), y de las características del material compuesto (volumen y orientación de fibra). Con respecto al material de las fibras, casi todos los estudios existentes se han centrado en las fibras de carbono y de vidrio, no habiendo estudios con fibras de basalto, aunque este material es de origen natural y una buena alternativa a las fibras de vidrio. Con respecto al proceso de fresado, los estudios existentes en la bibliografía se han centrado más en la operación de ranurado que en la de contorneado.
Una parte fundamental de la tesis se ha centrado en el estudio del delaminado. Para ello se han definido y desarrollado los diferentes aspectos teóricos que caracterizan este defecto. Además, se han cuantificado los tipos de delaminado (Tipos I y II) mediante la definición y comparación de parámetros unidimensionales y de superficie, evaluando su evolución temporal. Los parámetros unidimensionales permiten evaluar la longitud de las fibras que sobresalen o dañan la superficie, mientras que los parámetros de superficie permiten cuantificar la densidad del delaminado.
Como complemento al estudio experimental, se han utilizado herramientas estadísticas (diseño de experimentos, ANOVA y modelos de regresión cuantílica) para estudiar el fresado de este tipo de materiales en relación a la rugosidad, el desgaste de la herramienta y el delaminado. / [CA] Els materials compostos reforçats amb fibra són àmpliament utilitzats en diversos sectors, com l'aeroespacial i el d'automoció. Després del seu conformat, aquests materials necessiten processos de mecanitzat per a eliminar el material sobrant i facilitar la unió entre peces. A causa de la naturalesa heterogènia i anisotropia d'aquests materials, el seu comportament davant el mecanitzat és diferent que els metàl·lics. Les fibres abrasives provoquen un ràpid desgast de l'eina i, a més, l'aparició de la delaminació pot fer necessari el reprocessament o rebuig de les peces. La delaminació és un defecte que provoca la separació de capes del material compost i fa que la peça presente un aspecte esfilagarsat en la vora mecanitzada perquè l'eina doblega les fibres en lloc de tallar-les, a més de poder produir un mal superficial en la peça.
En aquesta tesi s'ha abordat l'estudi experimental del fresat de materials compostos reforçats amb fibra de basalt, en concret, en l'operació de contornejat. En el mecanitzat d'aquest material s'ha estudiat el desgast de l'eina, l'acabat superficial i la delaminació, analitzant la influència dels paràmetres de tall (velocitat, avanç i profunditat de passada), i de les característiques del material compost (volum i orientació de fibra). Respecte al material de les fibres, quasi tots els estudis existents s'han centrat en les fibres de carboni i de vidre, no havent-hi estudis amb fibres de basalt, encara que aquest material és d'origen natural i una bona alternativa a les fibres de vidre. Respecte al procés de fresat, els estudis existents en la bibliografia s'han centrat més en l'operació de ranurat que en la de contornejat.
Una part fonamental de la tesi s'ha centrat en l'estudi de la delaminació. Per a això s'han definit i desenvolupat els diferents aspectes teòrics que caracteritzen aquest defecte. A més, s'han quantificat els tipus de delaminació (Tipus I i II) mitjançant la definició i comparació de paràmetres unidimensionals i de superfície, avaluant la seua evolució temporal. Els paràmetres unidimensionals permeten avaluar la longitud de les fibres que sobreïxen o danyen la superfície, mentre que els paràmetres de superfície permeten quantificar la densitat de la delaminació.
Com a complement a l'estudi experimental, s'han utilitzat eines estadístiques (disseny d'experiments, ANOVA i models de regressió quantílica) per estudiar el fresat d'aquesta mena de materials i predir alguns aspectes de la rugositat, el desgast de l'eina i la delaminació. / [EN] Fiber reinforced composites are widely used in diverse fields such as aeronautics and automotive. After their shaping, these materials require machining processes to remove excess material and facilitate joining between parts. Due to the heterogeneous nature and anisotropy of these materials, their behavior when being machined is different from metallic ones. Abrasive fibers trigger fast tool wear and delamination appearance can cause piece reprocessing or discard. Delamination is a defect which induces the separation of composite layers and makes the piece present a frayed appearance on the machined edge because the tool bends the fibers instead of cutting them, in addition to producing surface damage to the piece.
In this thesis, the experimental study of milling of basalt fiber reinforced composite materials has been approached, specifically, in edge trimming. In the machining of this material, tool wear, surface finish and delamination have been studied, analyzing the influence of cutting parameters (cutting speed, feed per tooth and depth of cut) and characteristics of the composite material (fiber volume fraction and fiber orientation). Regarding the fiber material, almost all existing studies have focused on carbon and glass fibers, there are no studies with basalt fibers, although this material is of natural origin and a good alternative to glass fibers. About the milling process, existing studies in the literature have focused more on the grooving operation than on the edge trimming operation.
A fundamental part of the thesis has focused on the study of delamination. To characterize this defect, different theoretical aspects have been defined and developed. Additionally, different types of delamination (types I and II) have been quantified through the definition and comparison of one-dimensional and surface parameters, evaluating their temporal evolution. One-dimensional parameters allow the evaluation of the length of the fibers that protrude or damage the surface, while the surface parameters allow the quantification of the density of delaminate.
As a complement to the experimental study, statistical tools (experiment design, ANOVA and quantile regression models) have been used to study the milling of this type of materials and predict certain roughness, tool wear, and delamination aspects. / Navarro Mas, MD. (2021). Análisis experimental del fresado de materiales compuestos reforzados con fibra de basalto [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/177645
|
66 |
Ajuste y predicción de la mortalidad. Aplicación a ColombiaDíaz Rojo, Gisou 17 January 2022 (has links)
[ES] En la actualidad resulta de gran importancia el análisis de los fenómenos como el crecimiento poblacional y la reducción de la mortalidad por la repercusión económica y social que dichos procesos tienen en el desarrollo de los países. En este sentido las tablas de vida constituyen una herramienta para comprender, a través de las probabilidades de muerte, la esperanza de vida y otros indicadores, la dinámica poblacional. Lee y Carter (1992), plantearon un modelo, cuyo ajuste permite a los analistas obtener una visión dinámica del comportamiento de la mortalidad durante un periodo de análisis.
Esta tesis doctoral busca contribuir en la comprensión de los cambios que ha experimentado la población colombiana en cuanto a mortalidad. Para lograrlo se plantearon cuatro objetivos. El primero, construir modelos estocásticos de mortalidad como Lee-Carter para datos de Colombia y hacer un estudio comparativo de dichos modelos para evaluar su coherencia a partir de la calidad de los resultados obtenidos. El segundo, calcular y analizar algunos indicadores relacionados con la mortalidad tales como la mortalidad infantil, la esperanza de vida al nacer, la esperanza de vida a los 65 años, el índice de Gini al nacer y el índice de Gini a los 65 años. El tercero, aplicar gráficos de control para identificar los momentos en el tiempo y los intervalos de edad en los que la probabilidad de muerte observada es sustancialmente diferente de la pauta de mortalidad en el período estudiado. Para esto, los residuos de los modelos seleccionados se vigilaron mediante el gráfico de control multivariado T2 de Hotelling para detectar cambios sustanciales en la mortalidad que no fueron identificados por los modelos. El cuarto, analizar el comportamiento de la mortalidad para los departamentos de Colombia mediante técnicas de análisis multivariado como el análisis de componentes principales, el clúster jerárquico y el fuzzy clúster, para posteriormente identificar grupos de departamentos con comportamientos similares y caracterizarlos mediante los indicadores de mortalidad estudiados.
La metodología descrita relacionada con los tres primeros objetivos se aplicó a datos de las tablas de vida abreviadas por sexo para Colombia para el período 1973-2005, utilizando la información disponible en The Latin America Human Mortality Database. Para el análisis de la mortalidad por departamentos se construyeron nuevas tablas de vida abreviadas por sexo con la información de los departamentos para el período 1985-2014, ajustándonos a la información disponible para los departamentos de Colombia en cuanto a defunciones y población. La metodología fue implementada a través del software estadístico libre R, lo que permite la replicabilidad y reproducibilidad de los resultados. / [CA] En l'actualitat resulta de gran importància l'anàlisi dels fenòmens com el creixement poblacional i la reducció de la mortalitat per la repercussió econòmica i social que aquests processos tenen en el desenvolupament dels països. En aquest sentit les taules de vida constitueixen una eina per a comprendre, a través de les probabilitats de mort, l'esperança de vida i altres indicadors, la dinàmica poblacional. Lee i Carter (1992), van plantejar un model, l'ajust del qual permet als analistes obtenir una visió dinàmica del comportament de la mortalitat durant un període d'anàlisi.
Aquesta tesi doctoral cerca contribuir en la comprensió dels canvis que ha experimentat la població colombiana quant a mortalitat. Per a aconseguir-ho es van plantejar quatre objectius. El primer, construir models estocàstics de mortalitat com Lee-Carter per a dades de Colòmbia i fer un estudi comparatiu d'aquests models per a avaluar la seua coherència a partir de la qualitat dels resultats obtinguts. El segon, calcular i analitzar alguns indicadors relacionats amb la mortalitat tals com la mortalitat infantil, l'esperança de vida en nàixer, l'esperança de vida als 65 anys, l'índex de Gini en nàixer i l'índex de Gini als 65 anys. El tercer, aplicar gràfics de control per a identificar els moments en el temps i els intervals d'edat en els quals la probabilitat de mort observada és substancialment diferent de la pauta de mortalitat en el període estudiat. Per a això, els residus dels models seleccionats es van vigilar mitjançant el gràfic de control multivariat T2 de Hotelling per a detectar canvis substancials en la mortalitat que no van ser identificats pels models. El quart, analitzar el comportament de la mortalitat per als departaments de Colòmbia mitjançant tècniques d'anàlisi multivariada com l'anàlisi de components principals, el clúster jeràrquic i el fuzzy clúster, per a posteriorment identificar grups de departaments amb comportaments similars i caracteritzar-los mitjançant els indicadors de mortalitat estudiats.
La metodologia descrita relacionada amb els tres primers objectius es va aplicar a dades de les taules de vida abreujades per sexe per a Colòmbia per al període 1973-2005, utilitzant la informació disponible en The Latin America Human Mortality Database. Per a l'anàlisi de la mortalitat per departaments es van construir noves taules de vida abreujades per sexe amb la informació dels departaments per al període 1985-2014, ajustant-nos a la informació disponible per als departaments de Colòmbia quant a defuncions i població. La metodologia va ser implementada a través del programari estadístic lliure R, la qual cosa permet la replicabilidad i reproducibilidad dels resultats. / [EN] The analysis of phenomena such as population growth and mortality reduction is currently of great importance because of the economic and social impact that these processes have on the development of countries. In this sense, life tables are a tool for understanding population dynamics through death probabilities, life expectancy and other indicators. Lee and Carter (1992) proposed a model whose adjustment allows analysts to obtain a dynamic view of the behavior of mortality during a period of analysis.
This doctoral thesis seeks to contribute to the understanding of the changes experienced by the Colombian population in terms of mortality. To achieve this, four objectives were proposed. The first, to construct stochastic mortality models such as Lee-Carter for Colombian data and to make a comparative study of these models to evaluate their coherence based on the quality of the results obtained. The second is to calculate and analyze some mortality-related indicators such as infant mortality, life expectancy at birth, life expectancy at age 65, the Gini index at birth and the Gini index at age 65. The third is to apply control charts to identify moments in time and age intervals in which the observed probability of death is substantially different from the mortality pattern in the period studied. For this, the residuals of the selected models were monitored using Hotelling's T2 multivariate control chart to detect substantial changes in mortality that were not identified by the models. Fourth, to analyze the behavior of mortality for the departments of Colombia using multivariate analysis techniques such as principal component analysis, hierarchical clustering and fuzzy clustering, in order to subsequently identify groups of departments with similar behavior and characterize them by means of the mortality indicators studied.
The methodology described in relation to the first three objectives was applied to data from the abbreviated life tables by sex for Colombia for the period 1973-2005, using the information available in The Latin America Human Mortality Database. For the analysis of mortality by department, new abbreviated life tables by sex were constructed with information from the departments for the period 1985-2014, adjusting to the information available for the departments of Colombia in terms of deaths and population. The methodology was implemented through the free statistical software R, which allows the replicability and reproducibility of the results. / Díaz Rojo, G. (2021). Ajuste y predicción de la mortalidad. Aplicación a Colombia [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/179995
|
67 |
Nueva metodología de integración: Six Sigma + Gestión de riesgos + Gestión de la calidad. Aplicabilidad en pymes industriales de la Comunidad ValencianaBlasco Torregrosa, Marta 11 February 2022 (has links)
[ES] Alcanzar eficiencia y la efectividad empresarial es un aspecto vital para las organizaciones y, como viene siendo tendencia desde hace muchos años, se puede lograr mediante la implementación de sistemas de gestión y metodologías de mejora continua.
Los sistemas de gestión más conocidos son aquellos desarrollados por la Organización Internacional de Estandarización (ISO), siendo los más implantados el sistema de gestión de la calidad en base a la norma ISO 9001 y el sistema de gestión medioambiental en base a la norma ISO 14001. Estas normas han supuesto un cambio en la forma de gestionar las organizaciones alcanzando un éxito sin precedentes.
Sin embargo, la proliferación de estos sistemas de gestión ha dado lugar a que las organizaciones implanten varios sistemas de gestión simultáneamente. Para aprovechar las sinergias de cada sistema de gestión implantado individualmente surge la necesidad de la integración, es decir, unir los distintos sistemas de gestión presentes en un solo sistema. En este contexto, debido a la inexistencia de una metodología de integración universal, en la literatura existen numerosas metodologías de integración, ya que tanto los académicos como las instituciones han elaborado varias metodologías de integración, que abarcan fundamentalmente los sistemas de calidad y medio ambiente.
Es por ello que un nuevo planteamiento de investigación podría incluir la integración de otros sistemas de gestión distintos a los mencionados anteriormente, con el fin de diferenciarse y así crear nuevas líneas de investigación. Por tanto, una buena opción sería la integración de la gestión del riesgo que, aunque no sea uno de los sistemas de gestión más extendidos, conllevaría cuantiosos beneficios para las organizaciones, pudiendo así controlar de la forma más adecuada los problemas referentes a los riesgos.
Por otro lado, cuando en la literatura se analizan las metodologías de integración, todas ellas engloban únicamente sistemas de gestión. No hay que obviar, que además de estas normas, existen otras metodologías de mejora continua y de mejora de la calidad, como es el caso de Six Sigma. En referencia a esta metodología, existen estudios donde se reflejan los beneficios que conlleva la implantación de la metodología Six Sigma en las organizaciones.
Llegados a este punto, en la presente tesis se pretende diseñar una nueva metodología de integración para ayudar a las organizaciones a incrementar la competitividad, productividad y calidad y mediante la integración de metodología Six Sigma, la Gestión de la Calidad basado en la norma ISO 9001:2015 y la Gestión del Riesgo en base a la norma ISO 31000:2018.
La metodología de integración propuesta se podrá aplicar en pymes industriales de la Comunidad Valenciana y, además, será validada por un panel de expertos y por las pymes valencianas. Adicionalmente se ha realizado un estudio comparativo con pymes españolas establecidas en la República Checa. / [CA] Aconseguir l'eficiència i l'efectivitat empresarial és un aspecte vital per a les organitzacions i, com és tendència des de fa molts anys, es pot aconseguir mitjançant la implantació de sistemes de gestió i metodologies de millora contínua.
Els sistemes de gestió més coneguts són aquells desenvolupats per l'Organització Internacional de Estandardització (ISO), sent els més implantats el sistema de gestió de la qualitat en base ala norma ISO 9001 i el sistema de gestió mediambiental en base a la normal ISO 14001. Aquestes normes han suposat un canvi en la forma de gestionar les organitzacions aconseguint un èxit sense precedents.
No obstant això, la proliferació d'aquests sistemes de gestió ha donat lloc al fet que les organitzacions implanten diversos sistemes de gestió simultàniament. Per aprofitar les sinèrgies de cada sistema de gestió implantat individualment sorgeix la necessitat de la integració, és a dir, unir els diversos sistemes de gestió presents en un sol sistema integrat. En aquest context, ja que no existeix una metodologia d'integració universal, a la literatura existeixen nombroses metodologies d'integració, ja que tant els acadèmics com les institucions han elaborat diverses metodologies d'integració, que abasten principalment els sistemes de qualitat i medi ambient.
Per això, un nou plantejament de recerca podria incloure la integració d'altres sistemes de gestió diferents als esmentats anteriorment, amb la finalitat de diferenciar-se i així crear noves línies de recerca. Per tant, una bona opció seria la integració de la gestió del risc que, encara que no és un dels sistemes de gestió més estesos, comportaria quantiosos beneficis per a les organitzacions, podent així controlar de la forma més adequada els problemes referents als riscos.
D'altra banda, quan a la literatura s'analitzen les metodologies d'integració, totes elles engloben únicament sistemes de gestió. No cal obviar, que a més d'aquestes normes, existeixen altres metodologies de millora contínua i de millora de la qualitat, com és el cas de Six Sigma. En referència a aquesta metodologia, es troben estudis on es reflecteixen els beneficis que comporta la implantació de la metodologia Six Sigma en les organitzacions.
Arribats a aquest punt, en la present tesi es pretén desenvolupar una nova metodologia d'integració que ajude a les organitzacions a millorar la competitivitat, productivitat i qualitat mitjançant la integració de metodologia Six Sigma, la Gestió de la Qualitat basat en la norma ISO 9001:2015 i la Gestió del Risc basat en la norma ISO 31000:2018.
La metodologia d'integració proposta serà aplicable a pimes industrials de la Comunitat Valenciana i a més, serà validada per un panel d'experts i per les pimes valencianes. Addicionalment s'ha dut a terme una comparativa amb pimes espanyoles establides en la República Txeca. / [EN] Achieve business efficiency and effectiveness is a vital aspect for organizations and, as it has been the tendency for many years, this can be achieved through the implementation of management systems and continuous improvement methodologies.
The best-known management systems are those developed by the International Organization for Standardization (ISO), being the most implemented quality management system based on the ISO 9001 standard and the environmental management system based on ISO 14001. These standards have meant a change in the way organizations are managed, leading to unprecedented success.
However, the proliferation of these management systems has resulted in organizations implementing simultaneously various management systems. To take advantage of the synergies of each management system implemented individually, the need of integration arises to join the different management systems into a one integrated system. In this context, since there is not a universal integration methodology, there are abundant integration methodologies in the literature, due to both academics and institutions have developed several integration methodologies, which mainly cover quality and environmental systems.
Thus, a new research approach could include the integration of other management systems different from those mentioned above, in order to differentiate and then create new lines of research. Therefore, a good option would be the integration of risk management which, although it is not one of the most widespread management systems, would involve significant benefits for organizations, being able to control the problems related to risks in the most appropriate way.
On the other hand, we must not forget that in addition to the above standards, there are other methodologies for continuous improvement and improvement of quality, such as the case of Six Sigma. According to this methodology, there are studies where the benefits of implementing Six Sigma methodology in organizations are reflected.
At this point, this thesis aims to develop a new integration methodology that can help organizations improve competitiveness, productivity and quality and through the integration of Six Sigma methodology, Quality Management based on ISO 9001:2015, and Risk Management based on ISO 31000:2018 standard.
The proposed integration methodology will be applicable to industrial SMEs in the Valencia region in Spain and it will also be validated by a panel of experts and SMEs. It has beena dditionally carried out a comparison with Spanish SMEs located in the Czech Republic. / Blasco Torregrosa, M. (2022). Nueva metodología de integración: Six Sigma + Gestión de riesgos + Gestión de la calidad. Aplicabilidad en pymes industriales de la Comunidad Valenciana [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/180812
|
68 |
A Statistical Methodology for Classifying Time Series in the Context of Climatic DataRamírez Buelvas, Sandra Milena 24 February 2022 (has links)
[ES] De acuerdo con las regulaciones europeas y muchos estudios científicos, es necesario monitorear y analizar las condiciones microclimáticas en museos o edificios, para preservar las obras de arte en ellos. Con el objetivo de ofrecer herramientas para el monitoreo de las condiciones climáticas en este tipo de edificios, en esta tesis doctoral se propone una nueva metodología estadística para clasificar series temporales de parámetros climáticos como la temperatura y humedad relativa. La metodología consiste en aplicar un método de clasificación usando variables que se computan a partir de las series de tiempos. Los dos primeros métodos de clasificación son versiones conocidas de métodos sparse PLS que no se habían aplicado a datos correlacionados en el tiempo. El tercer método es una nueva propuesta que usa dos algoritmos conocidos. Los métodos de clasificación se basan en diferentes versiones de un método sparse de análisis discriminante de mínimos cuadra- dos parciales PLS (sPLS-DA, SPLSDA y sPLS) y análisis discriminante lineal (LDA). Las variables que los métodos de clasificación usan como input, corresponden a parámetros estimados a partir de distintos modelos, métodos y funciones del área de las series de tiempo, por ejemplo, modelo ARIMA estacional, modelo ARIMA- TGARCH estacional, método estacional Holt-Winters, función de densidad espectral, función de autocorrelación (ACF), función de autocorrelación parcial (PACF), rango móvil (MR), entre otras funciones. También fueron utilizadas algunas variables que se utilizan en el campo de la astronomía para clasificar estrellas. En los casos que a priori no hubo información de los clusters de las series de tiempos, las dos primeras componentes de un análisis de componentes principales (PCA) fueron utilizadas por el algoritmo k- means para identificar posibles clusters de las series de tiempo. Adicionalmente, los resultados del método sPLS-DA fueron comparados con los del algoritmo random forest. Tres bases de datos de series de tiempos de humedad relativa o de temperatura fueron analizadas. Los clusters de las series de tiempos se analizaron de acuerdo a diferentes zonas o diferentes niveles de alturas donde fueron instalados sensores para el monitoreo de las condiciones climáticas en los 3 edificios.El algoritmo random forest y las diferentes versiones del método sparse PLS fueron útiles para identificar las variables más importantes en la clasificación de las series de tiempos. Los resultados de sPLS-DA y random forest fueron muy similares cuando se usaron como variables de entrada las calculadas a partir del método Holt-Winters o a partir de funciones aplicadas a las series de tiempo. Aunque los resultados del método random forest fueron levemente mejores que los encontrados por sPLS-DA en cuanto a las tasas de error de clasificación, los resultados de sPLS- DA fueron más fáciles de interpretar. Cuando las diferentes versiones del método sparse PLS utilizaron variables resultantes del método Holt-Winters, los clusters de las series de tiempo fueron mejor discriminados. Entre las diferentes versiones del método sparse PLS, la versión sPLS con LDA obtuvo la mejor discriminación de las series de tiempo, con un menor valor de la tasa de error de clasificación, y utilizando el menor o segundo menor número de variables.En esta tesis doctoral se propone usar una versión sparse de PLS (sPLS-DA, o sPLS con LDA) con variables calculadas a partir de series de tiempo para la clasificación de éstas. Al aplicar la metodología a las distintas bases de datos estudiadas, se encontraron modelos parsimoniosos, con pocas variables, y se obtuvo una discriminación satisfactoria de los diferentes clusters de las series de tiempo con fácil interpretación. La metodología propuesta puede ser útil para caracterizar las distintas zonas o alturas en museos o edificios históricos de acuerdo con sus condiciones climáticas, con el objetivo de prevenir problemas de conservación con las obras de arte. / [CA] D'acord amb les regulacions europees i molts estudis científics, és necessari monitorar i analitzar les condiciones microclimàtiques en museus i en edificis similars, per a preservar les obres d'art que s'exposen en ells. Amb l'objectiu d'oferir eines per al monitoratge de les condicions climàtiques en aquesta mena d'edificis, en aquesta tesi es proposa una nova metodologia estadística per a classificar series temporals de paràmetres climàtics com la temperatura i humitat relativa.La metodologia consisteix a aplicar un mètode de classificació usant variables que es computen a partir de les sèries de temps. Els dos primers mètodes de classificació són versions conegudes de mètodes sparse PLS que no s'havien aplicat adades correlacionades en el temps. El tercer mètode és una nova proposta que usados algorismes coneguts. Els mètodes de classificació es basen en diferents versions d'un mètode sparse d'anàlisi discriminant de mínims quadrats parcials PLS (sPLS-DA, SPLSDA i sPLS) i anàlisi discriminant lineal (LDA). Les variables queels mètodes de classificació usen com a input, corresponen a paràmetres estimats a partir de diferents models, mètodes i funcions de l'àrea de les sèries de temps, per exemple, model ARIMA estacional, model ARIMA-TGARCH estacional, mètode estacional Holt-Winters, funció de densitat espectral, funció d'autocorrelació (ACF), funció d'autocorrelació parcial (PACF), rang mòbil (MR), entre altres funcions. També van ser utilitzades algunes variables que s'utilitzen en el camp de l'astronomia per a classificar estreles. En els casos que a priori no va haver-hi información dels clústers de les sèries de temps, les dues primeres components d'una anàlisi de components principals (PCA) van ser utilitzades per l'algorisme k-means per a identificar possibles clústers de les sèries de temps. Addicionalment, els resultats del mètode sPLS-DA van ser comparats amb els de l'algorisme random forest.Tres bases de dades de sèries de temps d'humitat relativa o de temperatura varen ser analitzades. Els clústers de les sèries de temps es van analitzar d'acord a diferents zones o diferents nivells d'altures on van ser instal·lats sensors per al monitoratge de les condicions climàtiques en els edificis.L'algorisme random forest i les diferents versions del mètode sparse PLS van ser útils per a identificar les variables més importants en la classificació de les series de temps. Els resultats de sPLS-DA i random forest van ser molt similars quan es van usar com a variables d'entrada les calculades a partir del mètode Holt-winters o a partir de funcions aplicades a les sèries de temps. Encara que els resultats del mètode random forest van ser lleument millors que els trobats per sPLS-DA quant a les taxes d'error de classificació, els resultats de sPLS-DA van ser més fàcils d'interpretar.Quan les diferents versions del mètode sparse PLS van utilitzar variables resultants del mètode Holt-Winters, els clústers de les sèries de temps van ser més ben discriminats. Entre les diferents versions del mètode sparse PLS, la versió sPLS amb LDA va obtindre la millor discriminació de les sèries de temps, amb un menor valor de la taxa d'error de classificació, i utilitzant el menor o segon menor nombre de variables.En aquesta tesi proposem usar una versió sparse de PLS (sPLS-DA, o sPLS amb LDA) amb variables calculades a partir de sèries de temps per a classificar series de temps. En aplicar la metodologia a les diferents bases de dades estudiades, es van trobar models parsimoniosos, amb poques variables, i varem obtindre una discriminació satisfactòria dels diferents clústers de les sèries de temps amb fácil interpretació. La metodologia proposada pot ser útil per a caracteritzar les diferents zones o altures en museus o edificis similars d'acord amb les seues condicions climàtiques, amb l'objectiu de previndre problemes amb les obres d'art. / [EN] According to different European Standards and several studies, it is necessary to monitor and analyze the microclimatic conditions in museums and similar buildings, with the goal of preserving artworks. With the aim of offering tools to monitor the climatic conditions, a new statistical methodology for classifying time series of different climatic parameters, such as relative humidity and temperature, is pro- posed in this dissertation.The methodology consists of applying a classification method using variables that are computed from time series. The two first classification methods are ver- sions of known sparse methods which have not been applied to time dependent data. The third method is a new proposal that uses two known algorithms. These classification methods are based on different versions of sparse partial least squares discriminant analysis PLS (sPLS-DA, SPLSDA, and sPLS) and Linear Discriminant Analysis (LDA). The variables that are computed from time series, correspond to parameter estimates from functions, methods, or models commonly found in the area of time series, e.g., seasonal ARIMA model, seasonal ARIMA-TGARCH model, seasonal Holt-Winters method, spectral density function, autocorrelation function (ACF), partial autocorrelation function (PACF), moving range (MR), among others functions. Also, some variables employed in the field of astronomy (for classifying stars) were proposed.The methodology proposed consists of two parts. Firstly, different variables are computed applying the methods, models or functions mentioned above, to time series. Next, once the variables are calculated, they are used as input for a classification method like sPLS-DA, SPLSDA, or SPLS with LDA (new proposal). When there was no information about the clusters of the different time series, the first two components from principal component analysis (PCA) were used as input for k-means method for identifying possible clusters of time series. In addition, results from random forest algorithm were compared with results from sPLS-DA.This study analyzed three sets of time series of relative humidity or temperate, recorded in different buildings (Valencia's Cathedral, the archaeological site of L'Almoina, and the baroque church of Saint Thomas and Saint Philip Neri) in Valencia, Spain. The clusters of the time series were analyzed according to different zones or different levels of the sensor heights, for monitoring the climatic conditions in these buildings.Random forest algorithm and different versions of sparse PLS helped identifying the main variables for classifying the time series. When comparing the results from sPLS-DA and random forest, they were very similar for variables from seasonal Holt-Winters method and functions which were applied to the time series. The results from sPLS-DA were easier to interpret than results from random forest. When the different versions of sparse PLS used variables from seasonal Holt- Winters method as input, the clusters of the time series were identified effectively.The variables from seasonal Holt-Winters helped to obtain the best, or the second best results, according to the classification error rate. Among the different versions of sparse PLS proposed, sPLS with LDA helped to classify time series using a fewer number of variables with the lowest classification error rate.We propose using a version of sparse PLS (sPLS-DA, or sPLS with LDA) with variables computed from time series for classifying time series. For the different data sets studied, the methodology helped to produce parsimonious models with few variables, it achieved satisfactory discrimination of the different clusters of the time series which are easily interpreted. This methodology can be useful for characterizing and monitoring micro-climatic conditions in museums, or similar buildings, for preventing problems with artwork. / I gratefully acknowledge the financial support of Pontificia Universidad Javeriana Cali – PUJ and Instituto Colombiano de Crédito Educativo y Estudios Técnicos en el Exterior – ICETEX who awarded me the scholarships ’Convenio de Capacitación para Docentes O. J. 086/17’ and ’Programa Crédito Pasaporte a la Ciencia ID 3595089 foco-reto salud’ respectively. The scholarships were essential for obtaining the Ph.D. Also, I gratefully acknowledge the financial support of the European Union’s Horizon 2020 research and innovation programme under grant agreement No. 814624. / Ramírez Buelvas, SM. (2022). A Statistical Methodology for Classifying Time Series in the Context of Climatic Data [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181123
|
69 |
Machine Learning and Multivariate Statistical Tools for Football AnalyticsMalagón Selma, María del Pilar 05 October 2023 (has links)
[ES] Esta tesis doctoral se centra en el estudio, implementación y aplicación de técnicas de aprendizaje automático y estadística multivariante en el emergente campo de la analítica deportiva, concretamente en el fútbol. Se aplican procedimientos comunmente utilizados y métodos nuevos para resolver cuestiones de investigación en diferentes áreas del análisis del fútbol, tanto en el ámbito del rendimiento deportivo como en el económico. Las metodologías empleadas en esta tesis enriquecen las técnicas utilizadas hasta el momento para obtener una visión global del comportamiento de los equipos de fútbol y pretenden ayudar al proceso de toma de decisiones. Además, la metodología se ha implementado utilizando el software estadístico libre R y datos abiertos, lo que permite la replicabilidad de los resultados.
Esta tesis doctoral pretende contribuir a la comprensión de los modelos de aprendizaje automático y estadística multivariante para la predicción analítica deportiva, comparando su capacidad predictiva y estudiando las variables que más influyen en los resultados predictivos de estos modelos. Así, siendo el fútbol un juego de azar donde la suerte juega un papel importante, se proponen metodologías que ayuden a estudiar, comprender y modelizar la parte objetiva de este deporte. Esta tesis se estructura en cinco bloques, diferenciando cada uno en función de la base de datos utilizada para alcanzar los objetivos propuestos.
El primer bloque describe las áreas de estudio más comunes en la analítica del fútbol y las clasifica en función de los datos utilizados. Esta parte contiene un estudio exhaustivo del estado del arte de la analítica del fútbol. Así, se recopila parte de la literatura existente en función de los objetivos alcanzados, conjuntamente con una revisión de los métodos estadísticos aplicados. Estos modelos son los pilares sobre los que se sustentan los nuevos procedimientos aquí propuestos.
El segundo bloque consta de dos capítulos que estudian el comportamiento de los equipos que alcanzan la Liga de Campeones o la Europa League, descienden a segunda división o permanecen en mitad de la tabla. Se proponen varias técnicas de aprendizaje automático y estadística multivariante para predecir la
posición de los equipos a final de temporada. Una vez realizada la predicción, se selecciona el modelo con mejor precisión predictiva para estudiar las acciones de juego que más discriminan entre posiciones. Además, se analizan las ventajas de las técnicas propuestas frente a los métodos clásicos utilizados hasta el momento.
El tercer bloque consta de un único capítulo en el que se desarrolla un código de web scraping para facilitar la recuperación de una nueva base de datos con información cuantitativa de las acciones de juego realizadas a lo largo del tiempo en los partidos de fútbol. Este bloque se centra en la predicción de los resultados de los partidos (victoria, empate o derrota) y propone la combinación de una técnica de aprendizaje automático, random forest, y la regresión Skellam, un método clásico utilizado habitualmente para predecir la diferencia de goles en el fútbol. Por último, se compara la precisión predictiva de los métodos clásicos utilizados hasta ahora con los métodos multivariantes propuestos.
El cuarto bloque también comprende un único capítulo y pertenece al área económica del fútbol. En este capítulo se aplica un novedoso procedimiento para desarrollar indicadores que ayuden a predecir los precios de traspaso. En concreto, se muestra la importancia de la popularidad a la hora de calcular el valor de mercado de los jugadores, por lo que este capítulo propone una nueva metodología para la recogida de información sobre la popularidad de los jugadores.
En el quinto bloque se revelan los aspectos más relevantes de esta tesis para la investigación y la analítica en el fútbol, incluyendo futuras líneas de trabajo. / [CA] Aquesta tesi doctoral se centra en l'estudi, implementació i aplicació de tècniques d'aprenentatge automàtic i estadística multivariant en l'emergent camp de l'analítica esportiva, concretament en el futbol. S'apliquen procediments comunament utilitzats i mètodes nous per a resoldre qu¿estions d'investigació en diferents àrees de l'anàlisi del futbol, tant en l'àmbit del rendiment esportiu com en l'econòmic. Les metodologies emprades en aquesta tesi enriqueixen les tècniques utilitzades fins al moment per a obtindre una visió global del comportament dels equips de futbol i pretenen ajudar al procés de presa de decisions. A més, la metodologia s'ha implementat utilitzant el programari estadístic lliure R i dades obertes, la qual cosa permet la replicabilitat dels resultats.
Aquesta tesi doctoral pretén contribuir a la comprensió dels models d'aprenentatge automàtic i estadística multivariant per a la predicció analítica esportiva, comparant la seua capacitat predictiva i estudiant les variables que més influeixen en els resultats predictius d'aquests models. Així, sent el futbol un joc d'atzar on la sort juga un paper important, es proposen metodologies que ajuden a estudiar, comprendre i modelitzar la part objectiva d'aquest esport. Aquesta tesi s'estructura en cinc blocs, diferenciant cadascun en funció de la base de dades utilitzada per a aconseguir els objectius proposats.
El primer bloc descriu les àrees d'estudi més comuns en l'analítica del futbol i les classifica en funció de les dades utilitzades. Aquesta part conté un estudi exhaustiu de l'estat de l'art de l'analítica del futbol. Així, es recopila part de la literatura existent en funció dels objectius aconseguits, conjuntament amb una revisió dels mètodes estadístics aplicats. Aquests models són els pilars sobre els quals se sustenten els nous procediments ací proposats.
El segon bloc consta de dos capítols que estudien el comportament dels equips que aconsegueixen la Lliga de Campions o l'Europa League, descendeixen a segona divisió o romanen a la meitat de la taula. Es proposen diverses tècniques d'aprenentatge automàtic i estadística multivariant per a predir la posició dels
equips a final de temporada. Una vegada realitzada la predicció, se selecciona el model amb millor precisió predictiva per a estudiar les accions de joc que més discriminen entre posicions. A més, s'analitzen els avantatges de les tècniques proposades enfront dels mètodes clàssics utilitzats fins al moment.
El tercer bloc consta d'un únic capítol en el qual es desenvolupa un codi de web scraping per a facilitar la recuperació d'una nova base de dades amb informació quantitativa de les accions de joc realitzades al llarg del temps en els partits de futbol. Aquest bloc se centra en la predicció dels resultats dels partits (victòria, empat o derrota) i proposa la combinació d'una tècnica d'aprenentatge automàtic, random forest, i la regressió Skellam, un mètode clàssic utilitzat habitualment per a predir la diferència de gols en el futbol. Finalment, es compara la precisió predictiva dels mètodes clàssics utilitzats fins ara amb els mètodes multivariants proposats.
El quart bloc també comprén un únic capítol i pertany a l'àrea econòmica del futbol. En aquest capítol s'aplica un nou procediment per a desenvolupar indicadors que ajuden a predir els preus de traspàs. En concret, es mostra la importància de la popularitat a l'hora de calcular el valor de mercat dels jugadors, per la qual cosa aquest capítol proposa una nova metodologia per a la recollida d'informació sobre la popularitat dels jugadors.
En el cinqué bloc es revelen els aspectes més rellevants d'aquesta tesi per a la investigació i l'analítica en el futbol, incloent-hi futures línies de treball. / [EN] This doctoral thesis focuses on studying, implementing, and applying machine learning and multivariate statistics techniques in the emerging field of sports analytics, specifically in football. Commonly used procedures and new methods are applied to solve research questions in different areas of football analytics, both in the field of sports performance and in the economic field. The methodologies used in this thesis enrich the techniques used so far to obtain a global vision of the behaviour of football teams and are intended to help the decision-making process. In addition, the methodology was implemented using the free statistical software R and open data, which allows for reproducibility of the results.
This doctoral thesis aims to contribute to the understanding of the behaviour of machine learning and multivariate models for analytical sports prediction, comparing their predictive capacity and studying the variables that most influence the predictive results of these models. Thus, since football is a game of chance where luck plays an important role, this document proposes methodologies that help to study, understand, and model the objective part of this sport. This thesis is structured into five blocks, differentiating each according to the database used to achieve the proposed objectives.
The first block describes the most common study areas in football analytics and classifies them according to the available data. This part contains an exhaustive study of football analytics state of the art. Thus, part of the existing literature is compiled based on the objectives achieved, with a review of the statistical methods applied. These methods are the pillars on which the new procedures proposed here are based.
The second block consists of two chapters that study the behaviour of teams concerning the ranking at the end of the season: top (qualifying for the Champions League or Europa League), middle, or bottom (relegating to a lower division). Several machine learning and multivariate statistical techniques are proposed to predict the teams' position at the season's end. Once the prediction has been made, the model with the best predictive accuracy is selected to study the game actions that most discriminate between positions. In addition, the advantages of our proposed techniques compared to the classical methods used so far are analysed.
The third block consists of a single chapter in which a web scraping code is developed to facilitate the retrieval of a new database with quantitative information on the game actions carried out over time in football matches. This block focuses on predicting match outcomes (win, draw, or loss) and proposing the combination of a machine learning technique, random forest, and Skellam regression model, a classical method commonly used to predict goal difference in football. Finally, the predictive accuracy of the classical methods used so far is compared with the proposed multivariate methods.
The fourth block also comprises a single chapter and pertains to the economic football area. This chapter applies a novel procedure to develop indicators that help predict transfer fees. Specifically, it is shown the importance of popularity when calculating the players' market value, so this chapter is devoted to propose a new methodology for collecting players' popularity information.
The fifth block reveals the most relevant aspects of this thesis for research and football analytics, including future lines of work. / Malagón Selma, MDP. (2023). Machine Learning and Multivariate Statistical Tools for Football Analytics [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/197630
|
70 |
Deep Learning Strategies for Overcoming Diagnosis Challenges with Limited AnnotationsAmor del Amor, María Rocío del 27 November 2023 (has links)
Tesis por compendio / [ES] En los últimos años, el aprendizaje profundo (DL) se ha convertido en una de
las principales áreas de la inteligencia artificial (IA), impulsado principalmente
por el avance en la capacidad de procesamiento. Los algoritmos basados en
DL han logrado resultados asombrosos en la comprensión y manipulación de
diversos tipos de datos, incluyendo imágenes, señales de habla y texto.
La revolución digital del sector sanitario ha permitido la generación de nuevas
bases de datos, lo que ha facilitado la implementación de modelos de DL bajo
el paradigma de aprendizaje supervisado. La incorporación de estos métodos
promete mejorar y automatizar la detección y el diagnóstico de enfermedades,
permitiendo pronosticar su evolución y facilitar la aplicación de intervenciones
clínicas de manera más efectiva.
Una de las principales limitaciones de la aplicación de algoritmos de DL
supervisados es la necesidad de grandes bases de datos anotadas por expertos,
lo que supone una barrera importante en el ámbito médico. Para superar este
problema, se está abriendo un nuevo campo de desarrollo de estrategias de
aprendizaje no supervisado o débilmente supervisado que utilizan los datos
disponibles no anotados o débilmente anotados. Estos enfoques permiten
aprovechar al máximo los datos existentes y superar las limitaciones de la
dependencia de anotaciones precisas.
Para poner de manifiesto que el aprendizaje débilmente supervisado puede
ofrecer soluciones óptimas, esta tesis se ha enfocado en el desarrollado de
diferentes paradigmas que permiten entrenar modelos con bases de datos
débilmente anotadas o anotadas por médicos no expertos. En este sentido, se
han utilizado dos modalidades de datos ampliamente empleadas en la literatura
para estudiar diversos tipos de cáncer y enfermedades inflamatorias: datos
ómicos e imágenes histológicas. En el estudio sobre datos ómicos, se han
desarrollado métodos basados en deep clustering que permiten lidiar con las
altas dimensiones inherentes a este tipo de datos, desarrollando un modelo predictivo sin la necesidad de anotaciones. Al comparar el método propuesto
con otros métodos de clustering presentes en la literatura, se ha observado una
mejora en los resultados obtenidos.
En cuanto a los estudios con imagen histológica, en esta tesis se ha abordado
la detección de diferentes enfermedades, incluyendo cáncer de piel (melanoma
spitzoide y neoplasias de células fusocelulares) y colitis ulcerosa. En este
contexto, se ha empleado el paradigma de multiple instance learning (MIL)
como línea base en todos los marcos desarrollados para hacer frente al
gran tamaño de las imágenes histológicas. Además, se han implementado
diversas metodologías de aprendizaje, adaptadas a los problemas específicos
que se abordan. Para la detección de melanoma spitzoide, se ha utilizado
un enfoque de aprendizaje inductivo que requiere un menor volumen de
anotaciones. Para abordar el diagnóstico de colitis ulcerosa, que implica la
identificación de neutrófilos como biomarcadores, se ha utilizado un enfoque de
aprendizaje restrictivo. Con este método, el coste de anotación se ha reducido
significativamente al tiempo que se han conseguido mejoras sustanciales en los
resultados obtenidos. Finalmente, considerando el limitado número de expertos
en el campo de las neoplasias de células fusiformes, se ha diseñado y validado
un novedoso protocolo de anotación para anotaciones no expertas. En este
contexto, se han desarrollado modelos de aprendizaje profundo que trabajan
con la incertidumbre asociada a dichas anotaciones.
En conclusión, esta tesis ha desarrollado técnicas de vanguardia para abordar
el reto de la necesidad de anotaciones precisas que requiere el sector médico.
A partir de datos débilmente anotados o anotados por no expertos, se han
propuesto novedosos paradigmas y metodologías basados en deep learning para
abordar la detección y diagnóstico de enfermedades utilizando datos ómicos
e imágenes histológicas. / [CA] En els últims anys, l'aprenentatge profund (DL) s'ha convertit en una de les
principals àrees de la intel·ligència artificial (IA), impulsat principalment per
l'avanç en la capacitat de processament. Els algorismes basats en DL han
aconseguit resultats sorprenents en la comprensió i manipulació de diversos
tipus de dades, incloent-hi imatges, senyals de parla i text.
La revolució digital del sector sanitari ha permés la generació de noves
bases de dades, la qual cosa ha facilitat la implementació de models de
DL sota el paradigma d'aprenentatge supervisat. La incorporació d'aquests
mètodes promet millorar i automatitzar la detecció i el diagnòstic de malalties,
permetent pronosticar la seua evolució i facilitar l'aplicació d'intervencions
clíniques de manera més efectiva.
Una de les principals limitacions de l'aplicació d'algorismes de DL supervisats
és la necessitat de grans bases de dades anotades per experts, la qual cosa
suposa una barrera important en l'àmbit mèdic. Per a superar aquest
problema, s'està obrint un nou camp de desenvolupament d'estratègies
d'aprenentatge no supervisat o feblement supervisat que utilitzen les dades
disponibles no anotades o feblement anotats. Aquests enfocaments permeten
aprofitar al màxim les dades existents i superar les limitacions de la
dependència d'anotacions precises.
Per a posar de manifest que l'aprenentatge feblement supervisat pot oferir
solucions òptimes, aquesta tesi s'ha enfocat en el desenvolupat de diferents
paradigmes que permeten entrenar models amb bases de dades feblement
anotades o anotades per metges no experts. En aquest sentit, s'han utilitzat
dues modalitats de dades àmpliament emprades en la literatura per a estudiar
diversos tipus de càncer i malalties inflamatòries: dades ómicos i imatges
histològiques. En l'estudi sobre dades ómicos, s'han desenvolupat mètodes
basats en deep clustering que permeten bregar amb les altes dimensions
inherents a aquesta mena de dades, desenvolupant un model predictiu sense la
necessitat d'anotacions. En comparar el mètode proposat amb altres mètodes
de clustering presents en la literatura, s'ha observat una millora en els resultats
obtinguts.
Quant als estudis amb imatge histològica, en aquesta tesi s'ha abordat la
detecció de diferents malalties, incloent-hi càncer de pell (melanoma spitzoide
i neoplàsies de cèl·lules fusocelulares) i colitis ulcerosa. En aquest context,
s'ha emprat el paradigma de multiple instance learning (MIL) com a línia
base en tots els marcs desenvolupats per a fer front a la gran grandària de
les imatges histològiques. A més, s'han implementat diverses metodologies
d'aprenentatge, adaptades als problemes específics que s'aborden. Per a la
detecció de melanoma spitzoide, s'ha utilitzat un enfocament d'aprenentatge
inductiu que requereix un menor volum d'anotacions. Per a abordar el
diagnòstic de colitis ulcerosa, que implica la identificació de neutròfils com
biomarcadores, s'ha utilitzat un enfocament d'aprenentatge restrictiu. Amb
aquest mètode, el cost d'anotació s'ha reduït significativament al mateix
temps que s'han aconseguit millores substancials en els resultats obtinguts.
Finalment, considerant el limitat nombre d'experts en el camp de les neoplàsies
de cèl·lules fusiformes, s'ha dissenyat i validat un nou protocol d'anotació
per a anotacions no expertes. En aquest context, s'han desenvolupat models
d'aprenentatge profund que treballen amb la incertesa associada a aquestes
anotacions.
En conclusió, aquesta tesi ha desenvolupat tècniques d'avantguarda per a
abordar el repte de la necessitat d'anotacions precises que requereix el sector
mèdic. A partir de dades feblement anotades o anotats per no experts,
s'han proposat nous paradigmes i metodologies basats en deep learning per a
abordar la detecció i diagnòstic de malalties utilitzant dades *ómicos i imatges
histològiques. Aquestes innovacions poden millorar l'eficàcia i l'automatització
en la detecció precoç i el seguiment de malalties. / [EN] In recent years, deep learning (DL) has become one of the main areas of
artificial intelligence (AI), driven mainly by the advancement in processing
power. DL-based algorithms have achieved amazing results in understanding
and manipulating various types of data, including images, speech signals and
text.
The digital revolution in the healthcare sector has enabled the generation
of new databases, facilitating the implementation of DL models under the
supervised learning paradigm. Incorporating these methods promises to
improve and automate the detection and diagnosis of diseases, allowing
the prediction of their evolution and facilitating the application of clinical
interventions with higher efficacy.
One of the main limitations in the application of supervised DL algorithms is
the need for large databases annotated by experts, which is a major barrier
in the medical field. To overcome this problem, a new field of developing
unsupervised or weakly supervised learning strategies using the available
unannotated or weakly annotated data is opening up. These approaches make
the best use of existing data and overcome the limitations of reliance on precise
annotations.
To demonstrate that weakly supervised learning can offer optimal solutions,
this thesis has focused on developing different paradigms that allow training
models with weakly annotated or non-expert annotated databases. In this
regard, two data modalities widely used in the literature to study various
types of cancer and inflammatory diseases have been used: omics data and
histological images. In the study on omics data, methods based on deep
clustering have been developed to deal with the high dimensions inherent to
this type of data, developing a predictive model without requiring annotations.
In comparison, the results of the proposed method outperform other existing
clustering methods.
Regarding histological imaging studies, the detection of different diseases has
been addressed in this thesis, including skin cancer (spitzoid melanoma and
spindle cell neoplasms) and ulcerative colitis. In this context, the multiple
instance learning (MIL) paradigm has been employed as the baseline in
all developed frameworks to deal with the large size of histological images.
Furthermore, diverse learning methodologies have been implemented, tailored
to the specific problems being addressed. For the detection of spitzoid
melanoma, an inductive learning approach has been used, which requires a
smaller volume of annotations. To address the diagnosis of ulcerative colitis,
which involves the identification of neutrophils as biomarkers, a constraint
learning approach has been utilized. With this method, the annotation cost
has been significantly reduced while achieving substantial improvements in the
obtained results. Finally, considering the limited number of experts in the field
of spindle cell neoplasms, a novel annotation protocol for non-experts has been
designed and validated. In this context, deep learning models that work with
the uncertainty associated with such annotations have been developed.
In conclusion, this thesis has developed cutting-edge techniques to address
the medical sector's challenge of precise data annotation. Using weakly
annotated or non-expert annotated data, novel paradigms and methodologies
based on deep learning have been proposed to tackle disease detection and
diagnosis in omics data and histological images. These innovations can improve
effectiveness and automation in early disease detection and monitoring. / The work of Rocío del Amor to carry out this research and to elaborate this
dissertation has been supported by the Spanish Ministry of Universities under
the FPU grant FPU20/05263. / Amor Del Amor, MRD. (2023). Deep Learning Strategies for Overcoming Diagnosis Challenges with Limited Annotations [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/200227 / Compendio
|
Page generated in 0.0463 seconds