• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 38
  • Tagged with
  • 112
  • 112
  • 56
  • 53
  • 48
  • 45
  • 41
  • 41
  • 41
  • 41
  • 41
  • 34
  • 32
  • 27
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Co-adaptive myoelectric control for upper limb prostheses

Igual Bañó, Carles 21 June 2021 (has links)
[ES] Mucha gente en el mundo se ve afectada por la pérdida de una extremidad (las predicciones estiman que en 2050 habrá más de 3 millones de personas afectadas únicamente en los Estados Unidos de América). A pesar de la continua mejora en las técnicas de amputación y la prostética, vivir sin una extremidad sigue limitando las actividades de los afectados en su vida diaria, provocando una disminución en su calidad de vida. En este trabajo nos centramos en los casos de amputaciones de extremidades superiores, entendiendo por ello la pérdida de cualquier parte del brazo o antebrazo. Esta tesis trata sobre el control mioeléctrico (potenciales eléctricos superficiales generados por la contracción de los músculos) de prótesis de extremidades superiores. Los estudios en este campo han crecido exponencialmente en las últimas décadas intentando reducir el hueco entre la parte investigadora más dinámica y propensa a los cambios e innovación (por ejemplo, usando técnicas como la inteligencia artificial) y la industria prostética, con una gran inercia y poco propensa a introducir cambios en sus controladores y dispositivos. El principal objetivo de esta tesis es desarrollar un nuevo controlador implementable basado en filtros adaptativos que supere los principales problemas del estado del arte. Desde el punto de vista teórico, podríamos considerar dos contribuciones principales. Primero, proponemos un nuevo sistema para modelar la relación entre los patrones de la señales mioélectricas y los movimientos deseados; este nuevo modelo tiene en cuenta a la hora de estimar la posición actual el valor de los estados pasados generando una nueva sinergia entre máquina y ser humano. En segundo lugar, introducimos un nuevo paradigma de entrenamiento más eficiente y personalizado autónomamente, el cual puede aplicarse no sólo a nuestro nuevo controlador, sino a otros regresores disponibles en la literatura. Como consecuencia de este nuevo protocolo, la estructura humano-máquina difiere con respecto del actual estado del arte en dos características: el proceso de aprendizaje del controlador y la estrategia para la generación de las señales de entrada. Como consecuencia directa de todo esto, el diseño de la fase experimental resulta mucho más complejo que con los controladores tradicionales. La dependencia de la posición actual de la prótesis con respecto a estados pasados fuerza a la realización de todos los experimentos de validación del nuevo controlador en tiempo real, algo costoso en recursos tanto humanos como de tiempo. Por lo tanto, una gran parte de esta tesis está dedicada al trabajo de campo necesario para validar el nuevo modelo y estrategia de entrenamiento. Como el objetivo final es proveer un nuevo controlador implementable, la última parte de la tesis está destinada a testear los métodos propuestos en casos reales, tanto en entornos simulados para validar su robustez ante rutinas diarias, como su uso en dispositivos prostéticos comerciales. Como conclusión, este trabajo propone un nuevo paradigma de control mioélectrico para prótesis que puede ser implementado en una prótesis real. Una vez se ha demostrado la viabilidad del sistema, la tesis propone futuras líneas de investigación, mostrando algunos resultados iniciales. / [CA] Molta gent en el món es veu afectada per la pèrdua d'una extremitat (les prediccions estimen que en 2050 hi haurà més de 3 milions de persones afectades únicament als Estats Units d'Amèrica). Malgrat la contínua millora en les tècniques d'amputació i la prostètica, viure sense una extremitat continua limitant les activitats dels afectats en la seua vida diària, provocant una disminució en la seua qualitat de vida. En aquest treball ens centrem en els casos d'amputacions d'extremitats superiors, entenent per això la pèrdua de qualsevol part del braç o avantbraç. Aquesta tesi tracta sobre el control mioelèctric (potencials elèctrics superficials generats per la contracció dels músculs) de pròtesis d'extremitats superiors. Els estudis en aquest camp han crescut exponencialment en les últimes dècades intentant reduir el buit entre la part investigadora més dinàmica i propensa als canvis i innovació (per exemple, usant tècniques com la intel·ligència artificial) i la indústria prostètica, amb una gran inèrcia i poc propensa a introduir canvis en els seus controladors i dispositius. Aquesta tesi contribueix a la investigació des de diversos punts de vista. El principal objectiu és desenvolupar un nou controlador basat en filtres adaptatius que supere els principals problemes de l'estat de l'art. Des del punt de vista teòric, podríem considerar dues contribucions principals. Primer, proposem un nou sistema per a modelar la relació entre els patrons de la senyals mioelèctrics i els moviments desitjats; aquest nou model té en compte a l'hora d'estimar la posició actual el valor dels estats passats generant una nova sinergia entre màquina i ésser humà. En segon lloc, introduïm un nou paradigma d'entrenament més eficient i personalitzat autònomament, el qual pot aplicar-se no sols al nostre nou controlador, sinó a uns altres regresors disponibles en la literatura. Com a conseqüència d'aquest nou protocol, l'estructura humà-màquina difereix respecte a l'actual estat de l'art en dues característiques: el procés d'aprenentatge del controlador i l'estratègia per a la generació dels senyals d'entrada. Com a conseqüència directa de tot això, el disseny de la fase experimental resulta molt més complex que amb els controladors tradicionals. La dependència de la posició actual de la pròtesi respecte a estats passats força a la realització de tots els experiments de validació del nou controlador en temps real, una cosa costosa en recursos tant humans com de temps. Per tant, una gran part d'aquesta tesi està dedicada al treball de camp necessari per a validar el nou model i estratègia d'entrenament. Com l'objectiu final és proveir un nou controlador implementable, l'última part de la tesi està destinada a testar els mètodes proposats en casos reals, tant en entorns simulats per a validar la seua robustesa davant rutines diàries, com el seu ús en dispositius prostètics comercials. Com a conclusió, aquest treball proposa un nou paradigma de control mioelèctric per a pròtesi que pot ser implementat en una pròtesi real. Una vegada s'ha demostrat la viabilitat del sistema, la tesi proposa futures línies d'investigació, mostrant alguns resultats inicials. / [EN] Many people in the world suffer from the loss of a limb (predictions estimate more than 3 million people by 2050 only in the USA). In spite of the continuous improvement in the amputation rehabilitation and prosthetic restoration, living without a limb keeps limiting the daily life activities leading to a lower quality of life. In this work, we focus in the upper limb amputation case, i.e., the removal of any part of the arm or forearm. This thesis is about upper limb prosthesis control using electromyographic signals (the superficial electric potentials generated during muscle contractions). Studies in this field have grown exponentially in the past decades trying to reduce the gap between a fast growing prosthetic research field, with the introduction of machine learning, and a slower prosthetic industry and limited manufacturing innovation. This thesis contributes to the field from different perspectives. The main goal is to provide and implementable new controller based on adaptive filtering that overcomes the most common state of the art concerns. From the theoretical point of view, there are two main contributions. First, we propose a new system to model the relationship between electromyographic signals and the desired prosthesis movements; this new model takes into account previous states for the estimation of the current position generating a new human-machine synergy. Second, we introduce a new and more efficient autonomously personalized training paradigm, which can benefit not only to our new proposed controller but also other state of the art regressors. As a consequence of this new protocol, the human-machine structure differs with respect to current state of the art in two features: the controller learning process and the input signal generation strategy. As a direct aftereffect of all of this, the experimental phase design results more complex than with traditional controllers. The current state dependency on past states forces the experimentation to be in real time, a very high demanding task in human and time resources. Therefore, a major part of this thesis is the associated fieldwork needed to validate the new model and training strategy. Since the final goal is to provide an implementable new controller, the last part of the thesis is devoted to test the proposed methods in real cases, not only analyzing the robustness and reliability of the controller in real life situations but in real prosthetic devices. As a conclusion, this work provides a new paradigm for the myoelectric prosthetic control that can be implemented in a real device. Once the thesis has proven the system's viability, future work should continue with the development of a physical device where all these ideas are deployed and used by final patients in a daily basis. / The work of Carles Igual Bañó to carry out this research and elaborate this dissertation has been supported by the Ministerio de Educación, Cultura y Deporte under the FPU Grant FPU15/02870. One visiting research fellowships (EST18/00544) was also funded by the Ministerio de Educación, Cultura y Deporte of Spain. / Igual Bañó, C. (2021). Co-adaptive myoelectric control for upper limb prostheses [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/168192 / TESIS
92

Machine learning strategies for diagnostic imaging support on histopathology and optical coherence tomography

García Pardo, José Gabriel 11 April 2022 (has links)
Tesis por compendio / [ES] Esta tesis presenta soluciones de vanguardia basadas en algoritmos de computer vision (CV) y machine learning (ML) para ayudar a los expertos en el diagnóstico clínico. Se centra en dos áreas relevantes en el campo de la imagen médica: la patología digital y la oftalmología. Este trabajo propone diferentes paradigmas de machine learning y deep learning para abordar diversos escenarios de supervisión en el estudio del cáncer de próstata, el cáncer de vejiga y el glaucoma. En particular, se consideran métodos supervisados convencionales para segmentar y clasificar estructuras específicas de la próstata en imágenes histológicas digitalizadas. Para el reconocimiento de patrones específicos de la vejiga, se llevan a cabo enfoques totalmente no supervisados basados en técnicas de deep-clustering. Con respecto a la detección del glaucoma, se aplican algoritmos de memoria a corto plazo (LSTMs) que permiten llevar a cabo un aprendizaje recurrente a partir de volúmenes de tomografía por coherencia óptica en el dominio espectral (SD-OCT). Finalmente, se propone el uso de redes neuronales prototípicas (PNN) en un marco de few-shot learning para determinar el nivel de gravedad del glaucoma a partir de imágenes OCT circumpapilares. Los métodos de inteligencia artificial (IA) que se detallan en esta tesis proporcionan una valiosa herramienta de ayuda al diagnóstico por imagen, ya sea para el diagnóstico histológico del cáncer de próstata y vejiga o para la evaluación del glaucoma a partir de datos de OCT. / [CA] Aquesta tesi presenta solucions d'avantguarda basades en algorismes de *computer *vision (CV) i *machine *learning (ML) per a ajudar als experts en el diagnòstic clínic. Se centra en dues àrees rellevants en el camp de la imatge mèdica: la patologia digital i l'oftalmologia. Aquest treball proposa diferents paradigmes de *machine *learning i *deep *learning per a abordar diversos escenaris de supervisió en l'estudi del càncer de pròstata, el càncer de bufeta i el glaucoma. En particular, es consideren mètodes supervisats convencionals per a segmentar i classificar estructures específiques de la pròstata en imatges histològiques digitalitzades. Per al reconeixement de patrons específics de la bufeta, es duen a terme enfocaments totalment no supervisats basats en tècniques de *deep-*clustering. Respecte a la detecció del glaucoma, s'apliquen algorismes de memòria a curt termini (*LSTMs) que permeten dur a terme un aprenentatge recurrent a partir de volums de tomografia per coherència òptica en el domini espectral (SD-*OCT). Finalment, es proposa l'ús de xarxes neuronals *prototípicas (*PNN) en un marc de *few-*shot *learning per a determinar el nivell de gravetat del glaucoma a partir d'imatges *OCT *circumpapilares. Els mètodes d'intel·ligència artificial (*IA) que es detallen en aquesta tesi proporcionen una valuosa eina d'ajuda al diagnòstic per imatge, ja siga per al diagnòstic histològic del càncer de pròstata i bufeta o per a l'avaluació del glaucoma a partir de dades d'OCT. / [EN] This thesis presents cutting-edge solutions based on computer vision (CV) and machine learning (ML) algorithms to assist experts in clinical diagnosis. It focuses on two relevant areas at the forefront of medical imaging: digital pathology and ophthalmology. This work proposes different machine learning and deep learning paradigms to address various supervisory scenarios in the study of prostate cancer, bladder cancer and glaucoma. In particular, conventional supervised methods are considered for segmenting and classifying prostate-specific structures in digitised histological images. For bladder-specific pattern recognition, fully unsupervised approaches based on deep-clustering techniques are carried out. Regarding glaucoma detection, long-short term memory algorithms (LSTMs) are applied to perform recurrent learning from spectral-domain optical coherence tomography (SD-OCT) volumes. Finally, the use of prototypical neural networks (PNNs) in a few-shot learning framework is proposed to determine the severity level of glaucoma from circumpapillary OCT images. The artificial intelligence (AI) methods detailed in this thesis provide a valuable tool to aid diagnostic imaging, whether for the histological diagnosis of prostate and bladder cancer or glaucoma assessment from OCT data. / García Pardo, JG. (2022). Machine learning strategies for diagnostic imaging support on histopathology and optical coherence tomography [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/182400 / TESIS / Compendio
93

Anomalous Diffusion Characterization using Machine Learning Methods

Garibo Orts, Óscar 18 April 2023 (has links)
Tesis por compendio / [ES] Durante las últimas décadas el uso del aprendizaje automático (machine learning) y de la inteligencia artificial ha mostrado un crecimiento exponencial en muchas áreas de la ciencia. El hecho de que los ordenadores hayan aumentado sus restaciones a la vez que han reducido su precio, junto con la disponibilidad de entornos de desarrollo de código abierto han permitido el acceso a la inteligencia artificial a un gran rango de investigadores, democratizando de esta forma el acceso a métodos de inteligencia artificial a la comunidad investigadora. Es nuestra creencia que la multidisciplinaridad es clave para nuevos logros, con equipos compuestos de investigadores con diferentes preparaciones y de diferentes campos de especialización. Con este ánimo, hemos orientado esta tesis en el uso de machine learning inteligencia artificial, aprendizaje profundo o deep learning, entendiendo todas las anteriores como parte de un concepto global que concretamos en el término inteligencia artificial, a intentar arrojar luz a algunos problemas de los campos de las matemáticas y la física. Desarrollamos una arquitectura deep learning y la medimos con éxito en la caracterización de procesos de difusión anómala. Mientras que previamente se habían utilizado métodos estadísticos clásicos con este objetivo, los métodos de deep learning han demostrado mejorar las prestaciones de dichos métodos clásicos. Nuestra architectura demostró que puede inferir con precisión el exponente de difusión anómala y clasificar trayectorias entre un conjunto dado de modelos subyacentes de difusión . Mientras que las redes neuronales recurrentes irrumpieron recientemente, los modelos basados en redes convolucionales han sido ámpliamente testados en el campo del procesamiento de imagen durante más de 15 años. Existen muchos modelos y arquitecturas, pre-entrenados y listos para ser usados por la comunidad. No es necesario realizar investigación ya que dichos modelos han probado su valía durante años y están bien documentados en la literatura. Nuestro objetivo era ser capaces de usar esos modelos bien conocidos y fiables, con trayectorias de difusión anómala. Solo necesitábamos convertir una serie temporal en una imagen, cosa que hicimos aplicando gramian angular fields a las trayectorias, poniendo el foco en las trayectorias cortas. Hasta donde sabemos, ésta es la primera vez que dichas técnicas son usadas en este campo. Mostramos cómo esta aproximación mejora las prestaciones de cualquier otra propuesta en la clasificación del modelo subyacente de difusión anómala para trayectorias cortas. Más allá de la física están las matemáticas. Utilizamos nuestra arquitectura basada en redes recurrentes neuronales para inferir los parámetros que definen las trayectorias de Wu Baleanu. Mostramos que nuestra propuesta puede inferir con azonable precisión los parámetros mu y nu. Siendo la primera vez, de nuevo hasta donde llega nuestro conocimiento, que tales técnicas se aplican en este escenario. Extendemos este trabajo a las ecuaciones fraccionales discretas con retardo, obteniendo resultados similares en términos de precisión. Adicionalmente, mostramos que la misma arquitectura se puede usar para discriminar entre trayectorias con y sin retardo con gran confianza. Finalmente, también investigamos modelos fraccionales discretos. Hemos analizado esquemas de paso temporal con la cuadratura de Lubich en lugar del clásico esquema de orden 1 de Euler. En el primer estudio de este nuevo paradigma hemos comparado los diagramas de bifurcación de los mapas logístico y del seno, obtenidos de la discretización de Euler de orden 1, 2 y 1/2. / [CAT] Durant les darreres dècades l'ús de l'aprenentatge automàtic (machine learning) i de la intel.ligència artificial ha mostrat un creixement exponencial en moltes àrees de la ciència. El fet que els ordinadors hagen augmentat les seues prestacions a la vegada que han reduït el seu preu, junt amb la disponibilitat d'entorns de desenvolupament de codi obert han permès l'accés a la intel.ligència artificial a un gran rang d'investigadors, democratitzant així l'accés a mètodes d'intel.ligència artificial a la comunitat investigadora. És la nostra creença que la multidisciplinaritat és clau per a nous èxits, amb equips compostos d'investigadors amb diferents preparacions i diferents camps d'especialització. Amb aquest ànim, hem orientat aquesta tesi en l'ús d'intel.ligència artificial machine learning, aprenentatge profund o deep learning, entenent totes les anteriors com a part d'un concepte global que concretem en el terme intel.ligència, a intentar donar llum a alguns problemes dels camps de les matemàtiques i la física. Desenvolupem una arquitectura deep learning i la mesurem amb èxit en la caracterització de processos de difusió anòmala. Mentre que prèviament s'havien utilitzat mètodes estadístics clàssics amb aquest objectiu, els mètodes de deep learning han demostrat millorar les prestacions d'aquests mètodes clàssics. La nostra architectura va demostrar que pot inferir amb precisió l'exponent de difusió anòmala i classificar trajectòries entre un conjunt donat de models subjacents de difusió. Mentre que les xarxes neuronals recurrents van irrompre recentment, els models basats en xarxes convolucionals han estat àmpliament testats al camp del processament d'imatge durant més de 15 anys. Hi ha molts models i arquitectures, pre-entrenats i llestos per ser usats per la comunitat. No cal fer recerca ja que aquests models han provat la seva vàlua durant anys i estan ben documentats a la literatura. El nostre objectiu era ser capaços de fer servir aquests models ben coneguts i fiables, amb trajectòries de difusió anòmala. Només necessitàvem convertir una sèrie temporal en una imatge, cosa que vam fer aplicant gramian angular fields a les trajectòries, posant el focus a les trajectòries curtes. Fins on sabem, aquesta és la primera vegada que aquestes tècniques són usades en aquest camp. Mostrem com aquesta aproximació millora les prestacions de qualsevol altra proposta a la classificació del model subjacent de difusió anòmala per a trajectòries curtes. Més enllà de la física hi ha les matemàtiques. Utilitzem la nostra arquitectura basada en xarxes recurrents neuronals per inferir els paràmetres que defineixen les trajectòries de Wu Baleanu. Mostrem que la nostra proposta pot inferir amb raonable precisió els paràmetres mu i nu. Sent la primera vegada, novament fins on arriba el nostre coneixement, que aquestes tècniques s'apliquen en aquest escenari. Estenem aquest treball a les equacions fraccionals discretes amb retard, obtenint resultats similars en termes de precisió. Addicionalment, mostrem que la mateixa arquitectura es pot fer servir per discriminar entre trajectòries amb i sense retard amb gran confiança. Finalment, també investiguem models fraccionals discrets. Hem analitzat esquemes de pas temporal amb la quadratura de Lubich en lloc del clàssic esquema d'ordre 1 d'Euler. Al primer estudi d'aquest nou paradigma hem comparat els diagrames de bifurcació dels mapes logístic i del sinus, obtinguts de la discretització d'Euler d'ordre 1, 2 i 1/2. / [EN] During the last decades the use of machine learning and artificial intelligence have showed an exponential growth in many areas of science. The fact that computer's hardware has increased its performance while lowering the price and the availability of open source frameworks have enabled the access to artificial intelligence to a broad range of researchers, hence democratizing the access to artificial intelligence methods to the research community. It is our belief that multi-disciplinarity is the key to new achievements, with teams composed of researchers with different backgrounds and fields of specialization. With this aim, we focused this thesis in using machine learning, artificial intelligence, deep learing, all of them being understood as part of a whole concept we concrete in artificial intelligence, to try to shed light to some problems from the fields of mathematics and physics. A deep learning architecture was developed and successfully benchmarked with the characterization of anomalous diffusion processes. Whereas traditional statistical methods had previously been used with this aim, deep learing methods, mainly based on recurrent neural networks have proved to outperform these clasical methods. Our architecture showed it can precisely infer the anomalous diffusion exponent and accurately classify trajectories among a given set of underlaying diffusion models. While recurrent neural networks irrupted in the recent years, convolutional network based models had been extensively tested in the field of image processing for more than 15 years. There exist many models and architectures, pre-trained and set to be used by the community. No further investigation needs to be done since the architecture have proved their value for years and are very well documented in the literature. Our goal was being able to used this well-known and reliable models with anomalous diffusion trajectories. We only needed to be able to convert a time series into an image, which we successfully did by applying gramian angular fields to the trajectories, focusing on short ones. To our knowledge this is the first time these techniques were used in this field. We show how this approach outperforms any other proposal in the underlaying diffusion model classification for short trajectories. Besides physics it is maths. We used our recurrent neural networks architecture to infer the parameters that define the Wu Baleanu trajectories. We show that our proposal can precisely infer both the mu and nu parameters with a reasonable confidence. Being the first time, to the best of our knowledge, that such techniques were applied to this scenario. We extend this work to the discrete delayed fractional equations, obtaining similar results in terms of precision. Additionally, we showed that the same architecture can be used to discriminate delayed from non-delayed trajectories with a high confidence. Finally, we also searched fractional discrete models. We have considered Lubich's quadrature time-stepping schemes instead of the classical Euler scheme of order 1. As the first study with this new paradigm, we compare the bifurcation diagrams for the logistic and sine maps obtained from Euler discretizations of orders 1, 2, and 1/2. / J.A.C. acknowledges support from ALBATROSS project (National Plan for Scientific and Technical Research and Innovation 2017-2020, No. PID2019-104978RB-I00). M.A.G.M. acknowledges funding from the Spanish Ministry of Education and Vocational Training (MEFP) through the Beatriz Galindo program 2018 (BEAGAL18/00203) and Spanish Ministry MINECO (FIDEUA PID2019- 106901GBI00/10.13039/501100011033). We thank M.A. Garc ́ıa-March for helpful comments and discussions on the topic. NF is sup- ported by the National University of Singapore through the Singapore International Graduate Student Award (SINGA) program. OGO and LS acknowledge funding from MINECO project, grant TIN2017-88476-C2-1-R. JAC acknowledges funding from grant PID2021-124618NB-C21 funded by MCIN/AEI/ 10.13039/501100011033 and by “ERDF A way of making Europe”, by the “European Union”. We also thank funding for the open access charges from CRUE-Universitat Politècnica de València. / Garibo Orts, Ó. (2023). Anomalous Diffusion Characterization using Machine Learning Methods [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/192831 / Compendio
94

Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECG

Jiménez Serrano, Santiago 07 September 2023 (has links)
[ES] Las enfermedades cardiovasculares son una de las principales causas de mortalidad y morbilidad en el mundo. Entre las arritmias más comunes en adultos destaca la Fibrilación Auricular (FA), presentando una tendencia de crecimiento muy significativa, sobre todo en población de edad avanzada o con trastornos de obesidad. En el otro extremo, nos encontramos con la Miocardiopatía Arritmogénica (MCA), considerada una enfermedad rara con una prevalencia de 1:2000-5000 pero con gran afectación entre familiares directos, causante de muerte súbita cardiaca (MSC), y con un diagnóstico clínico complicado. Más allá de la FA o la MCA, existe una amplia variedad de patologías derivadas de una disfunción en la activación y conducción eléctrica del corazón. Para todas ellas, el electrocardiograma (ECG) continúa figurando como la primera y principal técnica de diagnóstico clínico, siendo una herramienta fundamental de cribado y detección de patologías relativamente económica y ampliamente accesible. Sin embargo, el diagnóstico preciso a partir de la interpretación del ECG requiere de médicos experimentados, siendo ésta una tarea que consume recursos, tiempo y que además está sujeta a la variabilidad entre observadores. Respecto a las afecciones cardiacas más comunes, conseguir un diagnóstico de forma automática que sea fiable, utilizando tanto 12 como un número reducido o único de derivaciones, sigue presentándose como un desafío. Este aspecto cobra especial relevancia con el uso cada vez más extendido de dispositivos portátiles o wearables, los cuales están ganando un gran interés para la detección temprana y preventiva de enfermedades cardiacas, registrando normalmente un número reducido de derivaciones ECG. Dicho uso masivo les confiere un gran potencial para facilitar el cribado y seguimiento de distintas afecciones en una amplia variedad de escenarios, a pesar de registrar señales de peor calidad en comparación con equipos certificados para uso clínico. El principal reto con estos dispositivos es encontrar un equilibrio adecuado entre la sensibilidad y la especificidad en la detección de ritmos cardiacos susceptibles de ser patológicos. En consecuencia, es indispensable diseñar e implementar algoritmos precisos adecuados para dispositivos móviles o portátiles capaces de detectar distintas afecciones cardiacas en registros de ECG. Respecto las afecciones cardiacas menos comunes como el caso de la MCA, es necesario incrementar la sensibilidad en la detección durante los cribados intra-familiares realizados tras una MSC. Para ello, sería posible explorar biomarcadores propios a esta enfermedad obtenidos mediante técnicas de procesado de señales ECG, además de modelos de clasificación que hagan uso de ellos, contribuyendo así a reducir el número de casos de muerte súbita. En base a lo descrito anteriormente, la presente tesis estudia las posibilidades de diagnóstico basadas en técnicas de aprendizaje y clasificación automática en dos escenarios principales. El primero aborda la detección de la FA, así como un amplio abanico de otras patologías cardiacas comunes, donde proponemos y validamos distintos modelos de clasificación de bajo consumo computacional. Todo esto, utilizando extensas bases de datos de acceso abierto, y haciendo énfasis en enfoques de derivación única, ya que son los más utilizados en dispositivos móviles e inteligentes. El segundo escenario se centra en la detección de MCA mediante las 12 derivaciones estándar del ECG, donde proponemos y validamos nuevos biomarcadores y modelos de clasificación que tratan de incrementar la sensibilidad de los cribados intra-familiares realizados tras una MSC. Para ello, utilizamos una base de datos específica de la Unidad de Cardiopatías Familiares del Hospital Universitario y Politécnico La Fe de València. / [CA] Les malalties cardiovasculars són una de les principals causes de mortalitat i morbiditat en el món. Entre les arrítmies més comunes en adults destaca la Fibril·lació Auricular (FA), presentant una tendència de creixement molt significativa, sobretot en població d'edat avançada o amb trastorns d'obesitat. En l'altre extrem, ens trobem amb la Miocardiopatia Arritmogènica (MCA), considerada una malaltia rara amb una prevalença de 1:2000-5000 però amb gran afectació entre familiars directes, causant de mort sobtada cardíaca (MSC), i amb un diagnòstic clínic complicat. Més enllà de la FA o la MCA, existeix una àmplia varietat de patologies derivades d'una disfunció en l'activació i conducció elèctrica del cor. Per a totes elles, l'electrocardiograma (ECG) continua figurant com la primera i principal tècnica de diagnòstic clínic, sent una eina fonamental de cribratge i detecció de patologies relativament econòmica i àmpliament accessible. No obstant això, el diagnòstic precís a partir de la interpretació del ECG requereix de metges experimentats, sent aquesta una tasca que consumeix recursos, temps i que a més està subjecta a la variabilitat entre observadors. Respecte a les afeccions cardíaques més comunes, aconseguir un diagnòstic de manera automàtica que siga fiable, utilitzant tant 12 com un número reduït o únic de derivacions, continua presentant-se com un desafiament. Aquest aspecte cobra especial rellevància amb l'ús cada vegada més estés de dispositius portàtils o wearables, els quals estan guanyant un gran interés per a la detecció precoç i preventiva de malalties cardíaques, registrant normalment un nombre reduït de derivacions ECG. Aquest ús massiu els confereix un gran potencial per a facilitar el cribratge i seguiment de diferents afeccions en una àmplia varietat d'escenaris, malgrat registrar senyals de pitjor qualitat en comparació amb equips certificats per a ús clínic. El principal repte amb aquests dispositius és trobar un equilibri adequat entre la sensibilitat i l'especificitat en la detecció de ritmes cardíacs susceptibles de ser patològics. En conseqüència, és indispensable dissenyar i implementar algorismes precisos adequats per a dispositius mòbils o portàtils capaços de detectar diferents afeccions cardíaques en registres de ECG. Respecte les afeccions cardíaques menys comunes com el cas de la MCA, és necessari incrementar la sensibilitat en la detecció durant els cribratges intra-familiars realitzats després d'una MSC. Per a això, seria possible explorar biomarcadors propis a aquesta malaltia obtinguts mitjançant tècniques de processament de senyals ECG, a més de models de classificació que facen ús d'ells, contribuint així a reduir el nombre de casos de mort sobtada. Sobre la base del descrit anteriorment, la present tesi estudia les possibilitats de diagnòstic basades en tècniques d'aprenentatge i classificació automàtica en dos escenaris principals. El primer aborda la detecció de la FA, així com un ampli ventall d'altres patologies cardíaques comunes, on proposem i validem diferents models de classificació de baix consum computacional. Tot això, utilitzant extenses bases de dades d'accés obert, i fent èmfasi en enfocaments de derivació única, ja que són els més utilitzats en dispositius mòbils i intel·ligents. El segon escenari se centra en la detecció de MCA mitjançant les 12 derivacions estàndard de l'ECG, on proposem i validem nous biomarcadors i models de classificació que tracten d'incrementar la sensibilitat dels cribratges intra-familiars realitzats després d'una MSC. Per a això, utilitzem una base de dades específica de la Unitat de Cardiopaties Familiars de l'Hospital Universitari i Politècnic La Fe de València. / [EN] Cardiovascular diseases are one of the leading causes of mortality and morbidity worldwide. Atrial Fibrillation (AF) stands out among adults' most common arrhythmias, presenting a very significant growth trend, especially in the elderly population or those with obesity disorders. At the other extreme, we find Arrhythmogenic Cardiomyopathy (ACM), a rare disease with a prevalence of 1:2000-5000 but great affectation among direct relatives, causing sudden cardiac death (SCD), and with a complicated clinical diagnosis. Beyond AF or ACM, there is a wide variety of pathologies derived from dysfunctions in the activation or electrical conduction of the heart. For all of them, the electrocardiogram (ECG) continues to appear as the first and foremost clinical diagnostic technique, being a fundamental tool for screening and detecting pathologies that is relatively cheap and widely accessible. However, accurate diagnosis based on ECG interpretation requires experienced physicians, as this task consumes resources, time and is subject to variability between observers. For the most common cardiac conditions, achieving a reliable diagnosis automatically, using either 12 or a smaller or single number of leads, remains a challenge. This aspect is especially relevant with the increasingly widespread use of portable or wearable devices, which are gaining significant interest for the early and preventive detection of heart disease, typically recording a reduced number of ECG leads. Such massive use gives them great potential to facilitate screening and monitoring different conditions in different scenarios, despite registering signals of lower quality compared to equipment certified for clinical use. The main challenge with these devices is finding the right balance between sensitivity and specificity in detecting pathologic heart rhythms. Consequently, designing and implementing accurate algorithms suitable for mobile or portable devices capable of detecting different cardiac conditions in ECG recordings is essential. Concerning less common cardiac conditions such as the case of ACM, it is necessary to increase the sensitivity in detection during intra-family screenings carried out after an SCD. Hence, it would be possible to explore specific biomarkers to this disease obtained through ECG signal processing techniques, as well as classification models that use them, thus contributing to reduce the number of cases of sudden death. Based on the previously described, this thesis studies the diagnostic possibilities based on machine learning and classification techniques in two main scenarios. The first deals with detecting AF and a wide range of other common cardiac pathologies, where we propose and validate different classification models with low computational consumption. All this, using extensive open access databases, and emphasizing single-lead approaches, since they are the most used in mobile and smart devices. The second scenario focuses on detecting ACM using the standard 12-lead ECG, where we propose and validate new biomarkers and classification models that try to increase the sensitivity of intra-family screenings carried out after an MSC. For this task, we used a specific database of the Familial Cardiopathies Unit of the Hospital Universitario y Politécnico La Fe de València. / Jiménez Serrano, S. (2023). Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECG [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196826
95

Design and assessment of a computer-assisted artificial intelligence system for predicting preterm labor in women attending regular check-ups. Emphasis in imbalance data learning technique

Nieto del Amor, Félix 18 December 2023 (has links)
Tesis por compendio / [ES] El parto prematuro, definido como el nacimiento antes de las 37 semanas de gestación, es una importante preocupación mundial con implicaciones para la salud de los recién nacidos y los costes económicos. Afecta aproximadamente al 11% de todos los nacimientos, lo que supone más de 15 millones de individuos en todo el mundo. Los métodos actuales para predecir el parto prematuro carecen de precisión, lo que conduce a un sobrediagnóstico y a una viabilidad limitada en entornos clínicos. La electrohisterografía (EHG) ha surgido como una alternativa prometedora al proporcionar información relevante sobre la electrofisiología uterina. Sin embargo, los sistemas de predicción anteriores basados en EHG no se han trasladado de forma efectiva a la práctica clínica, debido principalmente a los sesgos en el manejo de datos desbalanceados y a la necesidad de modelos de predicción robustos y generalizables. Esta tesis doctoral pretende desarrollar un sistema de predicción del parto prematuro basado en inteligencia artificial utilizando EHG y datos obstétricos de mujeres sometidas a controles prenatales regulares. Este sistema implica la extracción de características relevantes, la optimización del subespacio de características y la evaluación de estrategias para abordar el reto de los datos desbalanceados para una predicción robusta. El estudio valida la eficacia de las características temporales, espectrales y no lineales para distinguir entre casos de parto prematuro y a término. Las nuevas medidas de entropía, en concreto la dispersión y la entropía de burbuja, superan a las métricas de entropía tradicionales en la identificación del parto prematuro. Además, el estudio trata de maximizar la información complementaria al tiempo que minimiza la redundancia y las características de ruido para optimizar el subespacio de características para una predicción precisa del parto prematuro mediante un algoritmo genético. Además, se ha confirmado la fuga de información entre el conjunto de datos de entrenamiento y el de prueba al generar muestras sintéticas antes de la partición de datos, lo que da lugar a una capacidad de generalización sobreestimada del sistema predictor. Estos resultados subrayan la importancia de particionar y después remuestrear para garantizar la independencia de los datos entre las muestras de entrenamiento y de prueba. Se propone combinar el algoritmo genético y el remuestreo en la misma iteración para hacer frente al desequilibrio en el aprendizaje de los datos mediante el enfoque de particio'n-remuestreo, logrando un área bajo la curva ROC del 94% y una precisión media del 84%. Además, el modelo demuestra un F1-score y una sensibilidad de aproximadamente el 80%, superando a los estudios existentes que consideran el enfoque de remuestreo después de particionar. Esto revela el potencial de un sistema de predicción de parto prematuro basado en EHG, permitiendo estrategias orientadas al paciente para mejorar la prevención del parto prematuro, el bienestar materno-fetal y la gestión óptima de los recursos hospitalarios. En general, esta tesis doctoral proporciona a los clínicos herramientas valiosas para la toma de decisiones en escenarios de riesgo materno-fetal de parto prematuro. Permite a los clínicos diseñar estrategias orientadas al paciente para mejorar la prevención y el manejo del parto prematuro. La metodología propuesta es prometedora para el desarrollo de un sistema integrado de predicción del parto prematuro que pueda mejorar la planificación del embarazo, optimizar la asignación de recursos y reducir el riesgo de parto prematuro. / [CA] El part prematur, definit com el naixement abans de les 37 setmanes de gestacio', e's una important preocupacio' mundial amb implicacions per a la salut dels nounats i els costos econo¿mics. Afecta aproximadament a l'11% de tots els naixements, la qual cosa suposa me's de 15 milions d'individus a tot el mo'n. Els me¿todes actuals per a predir el part prematur manquen de precisio', la qual cosa condueix a un sobrediagno¿stic i a una viabilitat limitada en entorns cl¿'nics. La electrohisterografia (EHG) ha sorgit com una alternativa prometedora en proporcionar informacio' rellevant sobre l'electrofisiologia uterina. No obstant aixo¿, els sistemes de prediccio' anteriors basats en EHG no s'han traslladat de manera efectiva a la pra¿ctica cl¿'nica, degut principalment als biaixos en el maneig de dades desequilibrades i a la necessitat de models de prediccio' robustos i generalitzables. Aquesta tesi doctoral prete'n desenvolupar un sistema de prediccio' del part prematur basat en intel·lige¿ncia artificial utilitzant EHG i dades obste¿triques de dones sotmeses a controls prenatals regulars. Aquest sistema implica l'extraccio' de caracter¿'stiques rellevants, l'optimitzacio' del subespai de caracter¿'stiques i l'avaluacio' d'estrate¿gies per a abordar el repte de les dades desequilibrades per a una prediccio' robusta. L'estudi valguda l'efica¿cia de les caracter¿'stiques temporals, espectrals i no lineals per a distingir entre casos de part prematur i a terme. Les noves mesures d'entropia, en concret la dispersio' i l'entropia de bambolla, superen a les me¿triques d'entropia tradicionals en la identificacio' del part prematur. A me's, l'estudi tracta de maximitzar la informacio' complementa¿ria al mateix temps que minimitza la redunda¿ncia i les caracter¿'stiques de soroll per a optimitzar el subespai de caracter¿'stiques per a una prediccio' precisa del part prematur mitjan¿cant un algorisme gene¿tic. A me's, hem confirmat la fugida d'informacio' entre el conjunt de dades d'entrenament i el de prova en generar mostres sinte¿tiques abans de la particio' de dades, la qual cosa dona lloc a una capacitat de generalitzacio' sobreestimada del sistema predictor. Aquests resultats subratllen la importa¿ncia de particionar i despre's remostrejar per a garantir la independe¿ncia de les dades entre les mostres d'entrenament i de prova. Proposem combinar l'algorisme gene¿tic i el remostreig en la mateixa iteracio' per a fer front al desequilibri en l'aprenentatge de les dades mitjan¿cant l'enfocament de particio'-remostrege, aconseguint una a¿rea sota la corba ROC del 94% i una precisio' mitjana del 84%. A me's, el model demostra una puntuacio' F1 i una sensibilitat d'aproximadament el 80%, superant als estudis existents que consideren l'enfocament de remostreig despre's de particionar. Aixo¿ revela el potencial d'un sistema de prediccio' de part prematur basat en EHG, permetent estrate¿gies orientades al pacient per a millorar la prevencio' del part prematur, el benestar matern-fetal i la gestio' o¿ptima dels recursos hospitalaris. En general, aquesta tesi doctoral proporciona als cl¿'nics eines valuoses per a la presa de decisions en escenaris de risc matern-fetal de part prematur. Permet als cl¿'nics dissenyar estrate¿gies orientades al pacient per a millorar la prevencio' i el maneig del part prematur. La metodologia proposada e's prometedora per al desenvolupament d'un sistema integrat de prediccio' del part prematur que puga millorar la planificacio' de l'embara¿s, optimitzar l'assignacio' de recursos i millorar la qualitat de l'atencio'. / [EN] Preterm delivery, defined as birth before 37 weeks of gestation, is a significant global concern with implications for the health of newborns and economic costs. It affects approximately 11% of all births, amounting to more than 15 million individuals worldwide. Current methods for predicting preterm labor lack precision, leading to overdiagnosis and limited practicality in clinical settings. Electrohysterography (EHG) has emerged as a promising alternative by providing relevant information about uterine electrophysiology. However, previous prediction systems based on EHG have not effectively translated into clinical practice, primarily due to biases in handling imbalanced data and the need for robust and generalizable prediction models. This doctoral thesis aims to develop an artificial intelligence based preterm labor prediction system using EHG and obstetric data from women undergoing regular prenatal check-ups. This system entails extracting relevant features, optimizing the feature subspace, and evaluating strategies to address the imbalanced data challenge for robust prediction. The study validates the effectiveness of temporal, spectral, and non-linear features in distinguishing between preterm and term labor cases. Novel entropy measures, namely dispersion and bubble entropy, outperform traditional entropy metrics in identifying preterm labor. Additionally, the study seeks to maximize complementary information while minimizing redundancy and noise features to optimize the feature subspace for accurate preterm delivery prediction by a genetic algorithm. Furthermore, we have confirmed leakage information between train and test data set when generating synthetic samples before data partitioning giving rise to an overestimated generalization capability of the predictor system. These results emphasize the importance of using partitioning-resampling techniques for ensuring data independence between train and test samples. We propose to combine genetic algorithm and resampling method at the same iteration to deal with imbalanced data learning using partition-resampling pipeline, achieving an Area Under the ROC Curve of 94% and Average Precision of 84%. Moreover, the model demonstrates an F1-score and recall of approximately 80%, outperforming existing studies on partition-resampling pipeline. This finding reveals the potential of an EHG-based preterm birth prediction system, enabling patient-oriented strategies for enhanced preterm labor prevention, maternal-fetal well-being, and optimal hospital resource management. Overall, this doctoral thesis provides clinicians with valuable tools for decision-making in preterm labor maternal-fetal risk scenarios. It enables clinicians to design a patient-oriented strategies for enhanced preterm birth prevention and management. The proposed methodology holds promise for the development of an integrated preterm birth prediction system that can enhance pregnancy planning, optimize resource allocation, and ultimately improve the outcomes for both mother and baby. / Nieto Del Amor, F. (2023). Design and assessment of a computer-assisted artificial intelligence system for predicting preterm labor in women attending regular check-ups. Emphasis in imbalance data learning technique [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/200900 / Compendio
96

Transformer Models for Machine Translation and Streaming Automatic Speech Recognition

Baquero Arnal, Pau 29 May 2023 (has links)
[ES] El procesamiento del lenguaje natural (NLP) es un conjunto de problemas computacionales con aplicaciones de máxima relevancia, que junto con otras tecnologías informáticas se ha beneficiado de la revolución que ha significado el aprendizaje profundo. Esta tesis se centra en dos problemas fundamentales para el NLP: la traducción automática (MT) y el reconocimiento automático del habla o transcripción automática (ASR); así como en una arquitectura neuronal profunda, el Transformer, que pondremos en práctica para mejorar las soluciones de MT y ASR en algunas de sus aplicaciones. El ASR y MT pueden servir para obtener textos multilingües de alta calidad a un coste razonable para una diversidad de contenidos audiovisuales. Concre- tamente, esta tesis aborda problemas como el de traducción de noticias o el de subtitulación automática de televisión. El ASR y MT también se pueden com- binar entre sí, generando automáticamente subtítulos traducidos, o con otras soluciones de NLP: resumen de textos para producir resúmenes de discursos, o síntesis del habla para crear doblajes automáticos. Estas aplicaciones quedan fuera del alcance de esta tesis pero pueden aprovechar las contribuciones que contiene, en la meduda que ayudan a mejorar el rendimiento de los sistemas automáticos de los que dependen. Esta tesis contiene una aplicación de la arquitectura Transformer al MT tal y como fue concebida, mediante la que obtenemos resultados de primer nivel en traducción de lenguas semejantes. En capítulos subsecuentes, esta tesis aborda la adaptación del Transformer como modelo de lenguaje para sistemas híbri- dos de ASR en vivo. Posteriormente, describe la aplicación de este tipus de sistemas al caso de uso de subtitulación de televisión, participando en una com- petición pública de RTVE donde obtenemos la primera posición con un marge importante. También demostramos que la mejora se debe principalmenta a la tecnología desarrollada y no tanto a la parte de los datos. / [CA] El processament del llenguage natural (NLP) és un conjunt de problemes com- putacionals amb aplicacions de màxima rellevància, que juntament amb al- tres tecnologies informàtiques s'ha beneficiat de la revolució que ha significat l'impacte de l'aprenentatge profund. Aquesta tesi se centra en dos problemes fonamentals per al NLP: la traducció automàtica (MT) i el reconeixement automàtic de la parla o transcripció automàtica (ASR); així com en una ar- quitectura neuronal profunda, el Transformer, que posarem en pràctica per a millorar les solucions de MT i ASR en algunes de les seues aplicacions. l'ASR i MT poden servir per obtindre textos multilingües d'alta qualitat a un cost raonable per a un gran ventall de continguts audiovisuals. Concretament, aquesta tesi aborda problemes com el de traducció de notícies o el de subtitu- lació automàtica de televisió. l'ASR i MT també es poden combinar entre ells, generant automàticament subtítols traduïts, o amb altres solucions de NLP: amb resum de textos per produir resums de discursos, o amb síntesi de la parla per crear doblatges automàtics. Aquestes altres aplicacions es troben fora de l'abast d'aquesta tesi però poden aprofitar les contribucions que conté, en la mesura que ajuden a millorar els resultats dels sistemes automàtics dels quals depenen. Aquesta tesi conté una aplicació de l'arquitectura Transformer al MT tal com va ser concebuda, mitjançant la qual obtenim resultats de primer nivell en traducció de llengües semblants. En capítols subseqüents, aquesta tesi aborda l'adaptació del Transformer com a model de llenguatge per a sistemes híbrids d'ASR en viu. Posteriorment, descriu l'aplicació d'aquest tipus de sistemes al cas d'ús de subtitulació de continguts televisius, participant en una competició pública de RTVE on obtenim la primera posició amb un marge significant. També demostrem que la millora es deu principalment a la tecnologia desen- volupada i no tant a la part de les dades / [EN] Natural language processing (NLP) is a set of fundamental computing prob- lems with immense applicability, as language is the natural communication vehicle for people. NLP, along with many other computer technologies, has been revolutionized in recent years by the impact of deep learning. This thesis is centered around two keystone problems for NLP: machine translation (MT) and automatic speech recognition (ASR); and a common deep neural architec- ture, the Transformer, that is leveraged to improve the technical solutions for some MT and ASR applications. ASR and MT can be utilized to produce cost-effective, high-quality multilin- gual texts for a wide array of media. Particular applications pursued in this thesis are that of news translation or that of automatic live captioning of tele- vision broadcasts. ASR and MT can also be combined with each other, for instance generating automatic translated subtitles from audio, or augmented with other NLP solutions: text summarization to produce a summary of a speech, or speech synthesis to create an automatic translated dubbing, for in- stance. These other applications fall out of the scope of this thesis, but can profit from the contributions that it contains, as they help to improve the performance of the automatic systems on which they depend. This thesis contains an application of the Transformer architecture to MT as it was originally conceived, achieving state-of-the-art results in similar language translation. In successive chapters, this thesis covers the adaptation of the Transformer as a language model for streaming hybrid ASR systems. After- wards, it describes how we applied the developed technology for a specific use case in television captioning by participating in a competitive challenge and achieving the first position by a large margin. We also show that the gains came mostly from the improvement in technology capabilities over two years including that of the Transformer language model adapted for streaming, and the data component was minor. / Baquero Arnal, P. (2023). Transformer Models for Machine Translation and Streaming Automatic Speech Recognition [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193680
97

Optimization of Fluid Bed Dryer Energy Consumption for Pharmaceutical Drug Processes through Machine Learning and Cloud Computing Technologies

Barriga Rodríguez, Roberto 01 September 2023 (has links)
[ES] Los altos costes energéticos, las constantes medidas regulatorias aplicadas por las administraciones para mantener bajos los costes sanitarios, así como los cambios en la normativa sanitaria que se han introducido en los últimos años, han tenido un impacto significativo en la industria farmacéutica y sanitaria. El paradigma Industria 4.0 engloba cambios en el modelo productivo tradicional de la industria farmacéutica con la inclusión de tecnologías que van más allá de la automatización tradicional. El objetivo principal es lograr medicamentos más rentables mediante la incorporación óptima de tecnologías como la analítica avanzada. El proceso de fabricación de las industrias farmacéuticas tiene diferentes etapas (mezclado, secado, compactado, recubrimiento, envasado, etc.) donde una de las etapas más costosas energéticamente es el proceso de secado. El objetivo durante este proceso es extraer el contenido de líquidos como el agua mediante la inyección de aire caliente y seco en el sistema. Este tiempo de secado normalmente está predeterminado y depende del volumen y el tipo de unidades de producto farmacéutico que se deben deshidratar. Por otro lado, la fase de precalentamiento puede variar dependiendo de varios parámetros como la experiencia del operador. Por lo tanto, es posible asumir que una optimización de este proceso a través de analítica avanzada es posible y puede tener un efecto significativo en la reducción de costes en todo el proceso de fabricación. Debido al alto coste de la maquinaria involucrada en el proceso de producción de medicamentos, es una práctica común en la industria farmacéutica tratar de maximizar la vida útil de estas máquinas que no están equipados con los últimos sensores. Así pues, es posible implementar un modelo de aprendizaje automático que utilice plataformas de analítica avanzada, como la computación en la nube, para analizar los posibles ahorros en el consumo de energía. Esta tesis está enfocada en mejorar el consumo de energía en el proceso de precalentamiento de un secador de lecho fluido, mediante la definición e implementación de una plataforma de computación en la nube IIOT (Industrial Internet of Things)-Cloud, para alojar y ejecutar un algoritmo de aprendizaje automático basado en el modelo Catboost, para predecir cuándo es el momento óptimo para detener el proceso y reducir su duración y, en consecuencia, su consumo energético. Los resultados experimentales muestran que es posible reducir el proceso de precalentamiento en un 45% de su duración en tiempo y, en consecuencia, reducir el consumo de energía hasta 2.8 MWh por año. / [CAT] Els elevats costos energètics, les constants mesures reguladores aplicades per les administracions per mantenir uns costos assistencials baixos, així com els canvis en la normativa sanitària que s'han introduït en els darrers anys, han tingut un impacte important en el sector farmacèutic i sanitari. El paradigma de la indústria 4.0 engloba els canvis en el model de producció tradicional de la indústria farmacèutica amb la inclusió de tecnologies que van més enllà de l'automatització tradicional. L'objectiu principal és aconseguir fàrmacs més rendibles mitjançant la incorporació òptima de tecnologies com l'analítica avançada. El procés de fabricació de les indústries farmacèutiques té diferents etapes (mescla, assecat, compactació, recobriment, envasat, etc.) on una de les etapes més costoses energèticament és el procés d'assecat. L'objectiu d'aquest procés és extreure el contingut de líquids com l'aigua injectant aire calent i sec al sistema. Aquest temps de procediment d'assecat normalment està predeterminat i depèn del volum i del tipus d'unitats de producte farmacèutic que cal deshidratar. D'altra banda, la fase de preescalfament pot variar en funció de diversos paràmetres com l'experiència de l'operador. Per tant, podem assumir que una optimització d'aquest procés mitjançant analítiques avançades és possible i pot tenir un efecte significatiu de reducció de costos en tot el procés de fabricació. A causa de l'elevat cost de la maquinària implicada en el procés de producció de fàrmacs, és una pràctica habitual a la indústria farmacèutica intentar maximitzar la vida útil d'aquestes màquines que no estan equipats amb els darrers sensors. Així, es pot implementar un model d'aprenentatge automàtic que utilitza plataformes de analítiques avançades com la computació en núvol, per analitzar l'estalvi potencial del consum d'energia. Aquesta tesis està enfocada a millorar el consum d'energia en el procés de preescalfament d'un assecador de llit fluid, mitjançant la definició i implementació d'una plataforma IIOT (Industrial Internet of Things)-Cloud computing, per allotjar i executar un algorisme d'aprenentatge automàtic basat en el modelatge Catboost, per predir quan és el moment òptim per aturar el procés i reduir-ne la durada, i en conseqüència el seu consum energètic. Els resultats de l'experiment mostren que és possible reduir el procés de preescalfament en un 45% de la seva durada en temps i, en conseqüència, reduir el consum d'energia fins a 2.8 MWh anuals. / [EN] High energy costs, the constant regulatory measures applied by administrations to maintain low healthcare costs, and the changes in healthcare regulations introduced in recent years have all significantly impacted the pharmaceutical and healthcare industry. The industry 4.0 paradigm encompasses changes in the traditional production model of the pharmaceutical industry with the inclusion of technologies beyond traditional automation. The primary goal is to achieve more cost-efficient drugs through the optimal incorporation of technologies such as advanced analytics. The manufacturing process of the pharmaceutical industry has different stages (mixing, drying, compacting, coating, packaging, etc..), and one of the most energy-expensive stages is the drying process. This process aims to extract the liquid content, such as water, by injecting warm and dry air into the system. This drying procedure time usually is predetermined and depends on the volume and the kind of units of a pharmaceutical product that must be dehydrated. On the other hand, the preheating phase can vary depending on various parameters, such as the operator's experience. It is, therefore, safe to assume that optimization of this process through advanced analytics is possible and can have a significant cost-reducing effect on the whole manufacturing process. Due to the high cost of the machinery involved in the drug production process, it is common practice in the pharmaceutical industry to try to maximize the useful life of these machines, which are not equipped with the latest sensors. Thus, a machine learning model using advanced analytics platforms, such as cloud computing, can be implemented to analyze potential energy consumption savings. This thesis is focused on improving the energy consumption in the preheating process of a fluid bed dryer by defining and implementing an IIOT (Industrial Internet of Things) Cloud computing platform. This architecture will host and run a machine learning algorithm based on Catboost modeling to predict when the optimum time is reached to stop the process, reduce its duration, and consequently its energy consumption. Experimental results show that it is possible to reduce the preheating process by 45% of its time duration, consequently reducing energy consumption by up to 2.8 MWh per year. / Barriga Rodríguez, R. (2023). Optimization of Fluid Bed Dryer Energy Consumption for Pharmaceutical Drug Processes through Machine Learning and Cloud Computing Technologies [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/195847
98

Genomic instability as a predictive biomarker for the application of DNA-damaging therapies in gynecological cancer patients

López Reig, Raquel 30 October 2023 (has links)
[ES] El curso natural de los tumores va acompañado de la acumulación progresiva de alteraciones genómicas, propiciando una cadena de eventos que resultan en inestabilidad genómica (IG). Éste fenómeno, caracterizado por alteraciones en el número de copias, constituye un hallmark genómico con impacto pronóstico más allá de la histología y otras características moleculares del tumor. En el ámbito de la investigación en oncología ginecológica, la IG ha ganado fuerza en los últimos años, permitiendo la estratificación de pacientes de acuerdo al pronóstico y la respuesta a agentes que dañan el ADN, como las terapias basadas en platinos y los inhibidores de PARP. En el cáncer de ovario, en particular, se ha descrito un subgrupo molecular caracterizado por alta incidencia de alteraciones en el número de copias relacionado con un mejor pronóstico y respuesta a quimioterapia. Esta correlación presenta la IG como un buen marcador predictivo y pronóstico. Así, un modelo basado en la IG trasladable a la práctica clínica constituirá una herramienta útil para la optimización de la toma de decisiones. La era de la medicina personalizada llegó de la mano de los estudios integrativos, donde las técnicas de alto rendimiento se aplican de manera combinada para obtener una visión molecular global de los tumores, completando y complementando la caracterización clásica a nivel anatómico e histológico. Esta tesis propone un estudio global de la IG como biomarcador pronóstico y predictivo de respuesta en cáncer ginecológico, haciendo hincapié en el cáncer de ovario seroso de alto grado y cáncer de endometrio. A través de la aplicación de estrategias basadas en NGS con la adaptación de pipelines de análisis disponibles obtuvimos los perfiles de IG de muestras de tejido fijadas en formol y embebidas en parafina, de una manera fiable, portable y coste efectiva, combinando herramientas de machine learning para ajustar modelos predictivos y pronósticos. Partiendo de esta premisa, ajustamos y validamos, en cohortes clínicas bien caracterizadas, tres modelos a partir de los datos ómicos individuales y un modelo integrativo (Scarface Score) que demostró la capacidad de predecir la respuesta a agentes que dañan el ADN en un escenario clínico concreto de pacientes con cáncer de ovario seroso de alto grado. Paralelamente, desarrollamos y validamos un algoritmo basado en el perfil de mutaciones, con impacto pronóstico, en cáncer de endometrio. Este algoritmo consiguió una estratificación que respondía al perfil de IG de los pacientes. Finalmente, se caracterizó un panel de líneas celulares de cáncer de ovario a nivel de respuesta, genético y genómico. Se interrogó el estatus de la vía de recombinación homóloga y su asociación a patrones de IG, completando el perfil molecular y estableciendo las bases para futuros estudios preclínicos y clínicos. Los resultados obtenidos en esta tesis doctoral presentan herramientas de gran valor para el manejo clínico en cuanto a la búsqueda de una medicina personalizada. Adicionalmente, diferentes estudios para trasladar el modelo predictivo a otros escenarios clínicos pueden ser explorados, usando como base el planteado, pero restableciendo puntos de corte nuevos y específicos. / [CA] El curs natural dels tumors va acompanyat de l'acumulació progressiva d'alteracions genòmiques, propiciant una cadena d'esdeveniments que resulten en inestabilitat genòmica (IG). Aquest fenomen, caracteritzat per la presencia de alteracions en el nombre de cópies, constitueix un hallmark genòmic amb impacte pronòstic més enllà de la histologia i altres característiques moleculars del tumor. En l'àmbit de la recerca en oncologia ginecològica, la IG ha guanyat força en els últims anys, permetent l'estratificació de pacients d'acord amb el pronòstic i la resposta d'agents que danyen l'ADN, com les teràpies basades en platins i els inhibidors de PARP. En el càncer d'ovari en particular, s'ha descrit un subgrup molecular caracteritzat per una alta incidència d'alteracions en el nombre de còpies relacionat amb un millor pronòstic i resposta a quimioteràpia. Aquesta correlació presenta la IG com un marcador predictiu i pronòstic adeqüat. Així, un model basat en la IG traslladable a la pràctica clínica constituirà una eina útil per a l'optimització de la presa de decisions. L'era de la medicina personalitzada va arribar de la mà dels estudis integratius, on les tècniques d'alt rendiment s'apliquen de manera combinada per a obtenir una visió molecular global dels tumors, completant i complementant la caracterització clàssica a nivell anatòmic i histològic. Aquesta tesi proposa un estudi global de la IG com a biomarcador pronòstic i predictiu de resposta en càncer ginecològic, posant l'accent en el càncer d'ovari serós d'alt grau i càncer d'endometri. A través de la aplicación d'estratègies basades en NGS amb l'adaptació de pipelines d'anàlisis disponibles, vam obtenir els perfils de IG de mostres de teixit fixades en formol i embegudes en parafina d'una manera fiable, portable i cost efectiva, combinant eines de machine learning per a ajustar models predictius i pronòstics. Partint d'aquesta premissa, vam ajustar i validar, en cohortes clíniques ben caracteritzades, tres models a partir de les dades omiques individuals i un model integratiu (Scarface Score) que va demostrar la capacitat de predir la resposta a agents que danyen l'ADN en un escenari clínic concret de pacients amb càncer d'ovari serós d'alt grau. Paral·lelament, desenvoluparem i validarem un algoritme basat en el perfil de mutacions amb impacte pronòstic en càncer d'endometri. Aquest algoritme va aconseguir una estratificació que responia al perfil de IG dels pacients. Finalment, es va caracteritzar un panell de línies cel·lulars de càncer d'ovari a nivell de resposta, genètic i genòmic. Es varen interrogar l'estatus de la via de recombinació homòloga i la seua associació a patrons de IG, completant el perfil molecular i establint les bases per a futurs estudis preclínics i clínics. Els resultats obtinguts en aquesta tesi doctoral presenten eines de gran valor per al maneig clínic en quant a la cerca d'una medicina personalitzada. Addicionalment, diferents estudis per a traslladar el model predictiu a altres escenaris clínics poden ser plantejats, usant com a base el propost però restablint punts de tall nous i específics. / [EN] The natural course of tumors matches the progressive accumulation of genomic alterations, triggering a cascade of events that results in genomic instability (GI). This phenomenon includes copy number alterations and constitutes a genomic hallmark that defines specific outcomes beyond histology and other molecular features of the tumor. In the context of gynaecologic oncology research, GI has gained strength in the last years allowing the stratification of patients according to prognosis and response to certain DNA-damaging agents, such as platinum-based therapies and PARP inhibitors. Particularly in ovarian and endometrial cancers, it has been described a molecular subgroup characterized by high copy number alterations (CNA) related to good prognosis and better response to chemotherapy. This relationship highlights GI as a predictive and prognostic biomarker. Hence, a GI-based model translated into clinical practice would constitute a tool for optimizing clinical decision-making. The era of personalised medicine arrived together with the coming of integrative studies, where results of high-throughput techniques are combined to obtain a comprehensive molecular landscape of the diseases, bringing a new paradigm to characterize the tumors beyond classical anatomic and histological characteristics. This thesis proposes a global study of the phenomenon of GI as a prognostic and predictive biomarker of treatment response in gynaecological cancers, mainly focused on high-grade ovarian cancer and endometrial cancer. Through the development of an NGS-based strategy with the adaptation of available pipelines of analysis, we obtained GI profiles on formalin-fixed paraffin-embedded samples in a reliable, portable, and cost-effective approach, with the combination of Machine Learning tools to fit prognostic and predictive models based on the integration of omic data. Based on that premise, we fit and validated, in well-characterized clinical cohorts, three single-source models and an integrative ensemble model (Scarface Score) that proved to be able to predict response to DNA-damaging agents in a clinical scenario of High-Grade Serous Ovarian Cancer. In addition, a mutational-based algorithm (12g algorithm) with prognostic impact was developed and validated for endometrial cancer patients. This algorithm achieved a GI-based stratification of patients. Finally, a panel of ovarian cancer cell lines was characterized at the response, genetic and genomic level, interrogating homologous recombination repair pathway status and its associated GI profiles, completing the molecular landscape, and establishing the basis and breeding ground of future preclinical and clinical studies. The results reported in this Doctoral Thesis provide valuable clinical management tools in the accomplishment of a reliable tailored therapy. Additionally, future studies in different tumor types and drugs for implementation of the predictive model can be planned, using as a base the defined one but re-establishing new and specific cut-offs. / The present doctoral thesis was partially funded by GVA Grants “Subvencions per a la realització de projectes d’i+d+i desenvolupats per grups d’investigació emergents (GV/2020/158)” and “Ayudas para la contratación de personal investigador en formación de carácter predoctoral” (ACIF/2016/008), “Beca de investigación traslacional Andrés Poveda 2020” from GEICO group and Phase II clinical trial (POLA: NCT02684318, EudraCT 2015-001141-08, 03.10.2015). This study was awarded the Prize “Antonio Llombart Rodriguez-FINCIVO 2020” from the Royal Academy of Medicine of the Valencian Community / López Reig, R. (2023). Genomic instability as a predictive biomarker for the application of DNA-damaging therapies in gynecological cancer patients [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/199026
99

Adoption Factors of Artificial intelligence in Human Resource Management

Tuffaha, Mohand 06 September 2022 (has links)
Tesis por compendio / [ES] El mundo es testigo de nuevos avances tecnológicos que afectan significativamente a las organizaciones en diferentes departamentos. La inteligencia artificial (IA) es uno de estos avances, visto como una tecnología revolucionaria en la gestión de recursos humanos (RRHH). Profesionales y académicos han discutido el brillante papel de la IA en RRHH. Sin embargo, el análisis profundo de esta tecnología en el proceso de RRHH es aún escaso. Con todo ello, el objetivo principal de esta tesis es investigar el estado de la IA en RRHH y así identificar factores clave de implementación concretos. Primero, construyendo un marco académico para la IA en RRHH; segundo, analizar las aplicaciones de IA más utilizada en los procesos de RRHH; tercero, identificar las formas óptimas de transferir el conocimiento en los procesos de implementación de IA. La metodología utilizada para la investigación combina la revisión sistemática de la literatura y técnicas de investigación cualitativa. Como base y medida preparatoria para abordar las preguntas de investigación, se llevó a cabo un extenso análisis de la literatura en el campo AI-RRHH, con un enfoque particular en las publicaciones de algoritmos de IA en HRM, análisis de HR-Big data, aplicaciones/soluciones de IA en HRM e implementación de IA. En la misma línea, el autor publicó artículos en varias conferencias que contribuyeron a mejorar la madurez de las preguntas de investigación. Con base en este conocimiento, los estudios publicados ilustraron la brecha entre la promesa y la realidad de la IA en RRHH, teniendo en cuenta los requisitos técnicos de la implementación de la IA, así como las aplicaciones y limitaciones. Posteriormente, se entrevistó a expertos en recursos humanos y consultores de IA que ya habían adquirido experiencia de primera mano con los procesos de recursos humanos en un entorno de IA para descubrir la verdad de la aplicación de la IA dominante en el proceso de RRHH. Los principales hallazgos de esta tesis incluyen la derivación de una definición completa de IA en RRHH, así como el estado de las estrategias de adopción de aplicaciones de IA en RRHH. Como resultado adicional, se explora la utilidad y las limitaciones de los chatbots en el proceso de contratación en la India. Además, factores clave para transferir el conocimiento del proceso de implementación de IA a los gerentes y empleados de recursos humanos. Finalmente, se concluye identificando desafíos asociados con la implementación de IA en el proceso de recursos humanos y el impacto de COVID-19 en la implementación de IA. / [CA] El món és testimoni de nous avanços tecnològics, que afecten significativament les organitzacions en diferents departaments. La intel·ligència artificial (IA) és un d'aquests avanços que s'anuncia àmpliament com una tecnologia revolucionària en la gestió de recursos humans (HRM). Professionals i acadèmics han discutit el brillant paper de la IA en HRM. No obstant això, encara és escàs l'anàlisi profund d'aquesta tecnologia en el procés de HRM. Per tant, l'objectiu principal d'aquesta tesi és investigar l'estat de la IA en HRM i derivar factors clau d'implementació concrets. Primer, construint un marc acadèmic per a la IA en HRM; segon, analitzar l'aplicació de IA més utilitzada en el procés de recursos humans; tercer, identificar les formes òptimes de transferir el coneixement dels processos d'implementació de IA. La metodologia utilitzada per a la investigació es combina entre una revisió sistemàtica de la literatura i una tècnica d'investigació qualitativa. Com a base i mesura preparatòria per a abordar les preguntes d'investigació, es va dur a terme una extensa anàlisi de la literatura en el camp IA-HRM, amb un enfocament particular en les publicacions d'algorismes de IA en HRM, anàlisis de HR-Big data, aplicacions/soluciones de IA en HRM i implementació de IA. En la mateixa línia, l'autor va publicar articles en diverses conferències que van procedir a millorar la maduresa de les preguntes d'investigació. Amb base en aquest coneixement, els estudis publicats van illustrar la bretxa entre la promesa i la realitat de la IA en HRM, tenint en compte els requisits tècnics de la implementació de la IA, així com les aplicacions i limitacions. Posteriorment, es va entrevistar experts en recursos humans i consultors de IA que ja havien adquirit experiència de primera mà amb els processos de recursos humans en un entorn de IA per a descobrir la veritat de l'aplicació de la IA dominant en el procés de recursos humans. Les principals troballes d'aquesta tesi són la derivació d'una definició completa de IA en HRM, així com l'estat de les estratègies d'adopció d'aplicacions de IA en HRM. Com a resultat addicional, explore la utilitat i les limitacions dels chatbots en el procés de contractació a l'Índia. A més, factors clau per a transferir el coneixement del procés d'implementació de IA als gerents i empleats de recursos humans. També es van concloure els desafiaments associats amb la implementació de IA en el procés de recursos humans i l'impacte de COVID-19 en la implementació de IA. / [EN] The world is witnessing new technological advancements, which significantly impacts organizations across different departments. Artificial intelligence (AI) is one of these advancements that is widely heralded as a revolutionary technology in Human Resource Management (HRM). Professionals and scholars have discussed the bright role of AI in HRM. However, deep analysis of this technology in the HR process is still scarce. Therefore, the main goal of this thesis is to investigate the status of AI in HRM and derive concrete implementation key factors. Through, first, building an academic framework for AI in HRM; second, analyzing the most commonly used AI applications in HR process; third, identifying the optimal ways to transfer the knowledge of AI implementation processes. The methodology used for the investigation combines a systematic literature review and a qualitative research technique. As a basis and preparatory measure to address the research questions, an extensive literature analysis in the AI-HRM field was carried out, with a particular focus on publications of AI in HRM, HR-Big data analysis, AI applications/solutions in HRM and AI implementation. Along similar lines, the author published papers in several conference proceedings to improve the maturity of research questions. Based on this work, the published studies illustrate the gap between the promise and reality of AI in HRM, taking into account the requirements of AI implementation as well as the applications and limitations. Subsequently, HR experts and AI consultants, who had already gained first-hand experience with HR processes in an AI environment, were interviewed to find out the truth of the dominant AI's application in HR process. The main findings of this thesis are the derivation of a complete definition of AI in HRM as well as the status of the adoption strategies of AI applications in HRM. As a further result, it explores the usefulness and limitations of chatbots in the recruitment processes in India. In addition, derived the key factors to transfer the knowledge of AI implementation process to HR managers and employees. Challenges associated with AI implementation in the HR process and the impact of COVID-19 on AI implementation were also concluded. / Tuffaha, M. (2022). Adoption Factors of Artificial intelligence in Human Resource Management [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/185909 / TESIS / Compendio
100

New Challenges in Learning Classifier Systems: Mining Rarities and Evolving Fuzzy Models

Orriols Puig, Albert 12 December 2008 (has links)
Durant l'última dècada, els sistemes classificadors (LCS) d'estil Michigan - sistemes d'aprenentatge automàtic que combinen tècniques de repartiment de crèdit i algorismes genètics (AG) per evolucionar una població de classificadors online- han renascut. Juntament amb la formulació dels sistemes de primera generació, s'han produït avenços importants en (1) el disseny sistemàtic de nous LCS competents, (2) la seva aplicació en dominis rellevants i (3) el desenvolupament d'anàlisis teòriques. Malgrat aquests dissenys i aplicacions importants, encara hi ha reptes complexos que cal abordar per comprendre millor el funcionament dels LCS i per solucionar problemes del món real eficientment i escalable.Aquesta tesi tracta dos reptes importants - compartits amb la comunitat d'aprenentatge automàtic - amb LCS d'estil Michigan: (1) aprenentatge en dominis que contenen classes estranyes i (2) evolució de models comprensibles on s'utilitzin mètodes de raonament similars als humans. L'aprenentatge de models precisos de classes estranyes és crític, doncs el coneixement clau sol quedar amagat en exemples d'aquestes, i la majoria de tècniques d'aprenentatge no són capaces de modelar la raresa amb precisió. La detecció de rareses sol ser complicat en aprenentatge online ja que el sistema d'aprenentatge rep un flux d'exemples i ha de detectar les rareses al vol. D'altra banda, l'evolució de models comprensibles és crucial en certs dominis com el mèdic, on l'expert acostuma a estar més interessat en obtenir una explicació intel·ligible de la predicció que en la predicció en si mateixa.El treball present considera dos LCS d'estil Michigan com a punt de partida: l'XCS i l 'UCS. Es pren l'XCS com a primera referència ja que és l'LCS que ha tingut més influencia fins al moment. L'UCS hereta els components principals de l'XCS i els especialitza per aprenentatge supervisat. Tenint en compte que aquesta tesi especialment se centra en problemes de classificació, l'UCS també es considera en aquest estudi. La inclusió de l'UCS marca el primer objectiu de la tesi, sota el qual es revisen un conjunt de punts que van restar oberts en el disseny del sistema. A més, per il·lustrar les diferències claus entre l'XCS i l'UCS, es comparen ambdós sistemes sobre una bateria de problemes artificials de complexitat acotada.L'estudi de com els LCS aprenen en dominis amb classes estranyes comença amb un estudi analític que descompon el problema en cinc elements crítics i deriva models per facetes per cadascun d'ells. Aquesta anàlisi s'usa com a eina per dissenyar guies de configuració que permeten que l'XCS i l'UCS solucionin problemes que prèviament no eren resolubles. A continuació, es comparen els dos LCS amb alguns dels sistemes d'aprenentatge amb més influencia en la comunitat d'aprenentatge automàtic sobre una col·lecció de problemes del món real que contenen classes estranyes. Els resultats indiquen que els dos LCS són els mètodes més robustos de la comparativa. Així mateix, es demostra experimentalment que remostrejar els conjunts d'entrenament amb l'objectiu d'eliminar la presencia de classes estranyes beneficia, en mitjana, el rendiment de les tècniques d'aprenentatge.El repte de crear models més comprensibles i d'usar mecanismes de raonament que siguin similars als humans s'aborda mitjançant el disseny d'un nou LCS per aprenentatge supervisat que combina les capacitats d'avaluació de regles online, la robustesa mostrada pels AG en problemes complexos i la representació comprensible i mètodes de raonament fonamentats proporcionats per la lògica difusa. El nou LCS, anomenat Fuzzy-UCS, s'estudia en detall i es compara amb una bateria de mètodes d'aprenentatge. Els resultats de la comparativa demostren la competitivitat del Fuzzy-UCS en termes de precisió i intel·ligibilitat dels models evolucionats. Addicionalment, s'usa Fuzzy-UCS per extreure models de classificació acurats de grans volums de dades, exemplificant els avantatges de l'arquitectura d'aprenentatge online del Fuzzy-UCS.En general, les observacions i avenços assolits en aquesta tesi contribueixen a augmentar la comprensió del funcionament dels LCS i en preparar aquests tipus de sistemes per afrontar problemes del món real de gran complexitat. Finalment, els resultats experimentals ressalten la robustesa i competitivitat dels LCS respecte a altres mètodes d'aprenentatge, encoratjant el seu ús per tractar nous problemes del món real. / Durante la última década, los sistemas clasificadores (LCS) de estilo Michigan - sistemas de aprendizaje automático que combinan técnicas de repartición de crédito y algoritmos genéticos (AG) para evolucionar una población de clasificadores online - han renacido. Juntamente con la formulación de los sistemas de primera generación, se han producido avances importantes en (1) el diseño sistemático de nuevos LCS competentes, (2) su aplicación en dominios relevantes y (3) el desarrollo de análisis teóricos. Pese a eso, aún existen retos complejos que deben ser abordados para comprender mejor el funcionamiento de los LCS y para solucionar problemas del mundo real escalable y eficientemente.Esta tesis trata dos retos importantes - compartidos por la comunidad de aprendizaje automático - con LCS de estilo Michigan: (1) aprendizaje en dominios con clases raras y (2) evolución de modelos comprensibles donde se utilicen métodos de razonamiento similares a los humanos. El aprendizaje de modelos precisos de clases raras es crítico pues el conocimiento clave suele estar escondido en ejemplos de estas clases, y la mayoría de técnicas de aprendizaje no son capaces de modelar la rareza con precisión. El modelado de las rarezas acostumbra a ser más complejo en entornos de aprendizaje online, pues el sistema de aprendizaje recibe un flujo de ejemplos y debe detectar las rarezas al vuelo. La evolución de modelos comprensibles es crucial en ciertos dominios como el médico, donde el experto está más interesado en obtener una explicación inteligible de la predicción que en la predicción en sí misma.El trabajo presente considera dos LCS de estilo Michigan como punto de partida: el XCS y el UCS. Se toma XCS como primera referencia debido a que es el LCS que ha tenido más influencia hasta el momento. UCS es un diseño reciente de LCS que hereda los componentes principales de XCS y los especializa para aprendizaje supervisado. Dado que esta tesis está especialmente centrada en problemas de clasificación automática, también se considera UCS en el estudio. La inclusión de UCS marca el primer objetivo de la tesis, bajo el cual se revisan un conjunto de aspectos que quedaron abiertos durante el diseño del sistema. Además, para ilustrar las diferencias claves entre XCS y UCS, se comparan ambos sistemas sobre una batería de problemas artificiales de complejidad acotada.El estudio de cómo los LCS aprenden en dominios con clases raras empieza con un estudio analítico que descompone el problema en cinco elementos críticos y deriva modelos por facetas para cada uno de ellos. Este análisis se usa como herramienta para diseñar guías de configuración que permiten que XCS y UCS solucionen problemas que previamente no eran resolubles. A continuación, se comparan los dos LCS con algunos de los sistemas de aprendizaje de mayor influencia en la comunidad de aprendizaje automático sobre una colección de problemas del mundo real que contienen clases raras.Los resultados indican que los dos LCS son los métodos más robustos de la comparativa. Además, se demuestra experimentalmente que remuestrear los conjuntos de entrenamiento con el objetivo de eliminar la presencia de clases raras beneficia, en promedio, el rendimiento de los métodos de aprendizaje automático incluidos en la comparativa.El reto de crear modelos más comprensibles y usar mecanismos de razonamiento que sean similares a los humanos se aborda mediante el diseño de un nuevo LCS para aprendizaje supervisado que combina las capacidades de evaluación de reglas online, la robustez mostrada por los AG en problemas complejos y la representación comprensible y métodos de razonamiento proporcionados por la lógica difusa. El sistema que resulta de la combinación de estas ideas, llamado Fuzzy-UCS, se estudia en detalle y se compara con una batería de métodos de aprendizaje altamente reconocidos en el campo de aprendizaje automático. Los resultados de la comparativa demuestran la competitividad de Fuzzy-UCS en referencia a la precisión e inteligibilidad de los modelos evolucionados. Adicionalmente, se usa Fuzzy-UCS para extraer modelos de clasificación precisos de grandes volúmenes de datos, ejemplificando las ventajas de la arquitectura de aprendizaje online de Fuzzy-UCS.En general, los avances y observaciones proporcionados en la tesis presente contribuyen a aumentar la comprensión del funcionamiento de los LCS y a preparar estos tipos de sistemas para afrontar problemas del mundo real de gran complejidad. Además, los resultados experimentales resaltan la robustez y competitividad de los LCS respecto a otros métodos de aprendizaje, alentando su uso para tratar nuevos problemas del mundo real. / During the last decade, Michigan-style learning classifier systems (LCSs) - genetic-based machine learning (GBML) methods that combine apportionment of credit techniques and genetic algorithms (GAs) to evolve a population of classifiers online - have been enjoying a renaissance. Together with the formulation of first generation systems, there have been crucial advances in (1) systematic design of new competent LCSs, (2) applications in important domains, and (3) theoretical analyses for design. Despite these successful designs and applications, there still remain difficult challenges that need to be addressed to increase our comprehension of how LCSs behave and to scalably and efficiently solve real-world problems.The purpose of this thesis is to address two important challenges - shared by the machine learning community - with Michigan-style LCSs: (1) learning from domains that contain rare classes and (2) evolving highly legible models in which human-like reasoning mechanisms are employed. Extracting accurate models from rare classes is critical since the key, unperceptive knowledge usually resides in the rarities, and many traditional learning techniques are not able to model rarity accurately. Besides, these difficulties are increased in online learning, where the learner receives a stream of examples and has to detect rare classes on the fly. Evolving highly legible models is crucial in some domains such as medical diagnosis, in which human experts may be more interested in the explanation of the prediction than in the prediction itself.The contributions of this thesis take two Michigan-style LCSs as starting point: the extended classifier system (XCS) and the supervised classifier system (UCS). XCS is taken as the first reference of this work since it is the most influential LCS. UCS is a recent LCS design that has inherited the main components of XCS and has specialized them for supervised learning. As this thesis is especially concerned with classification problems, UCS is also considered in this study. Since UCS is still a young system, for which there are several open issues that need further investigation, its learning architecture is first revised and updated. Moreover, to illustrate the key differences between XCS and UCS, the behavior of both systems is compared % and show that UCS converges quickly than XCS on a collection of boundedly difficult problems.The study of learning from rare classes with LCSs starts with an analytical approach in which the problem is decomposed in five critical elements, and facetwise models are derived for each element. The analysis is used as a tool for designing configuration guidelines that enable XCS and UCS to solve problems that previously eluded solution. Thereafter, the two LCSs are compared with several highly-influential learners on a collection of real-world problems with rare classes, appearing as the two best techniques of the comparison. Moreover, re-sampling the training data set to eliminate the presence of rare classes is demonstrated to benefit, on average, the performance of LCSs.The challenge of building more legible models and using human-like reasoning mechanisms is addressed with the design of a new LCS for supervised learning that combines the online evaluation capabilities of LCSs, the search robustness over complex spaces of GAs, and the legible knowledge representation and principled reasoning mechanisms of fuzzy logic. The system resulting from this crossbreeding of ideas, referred to as Fuzzy-UCS, is studied in detail and compared with several highly competent learning systems, demonstrating the competitiveness of the new architecture in terms of the accuracy and the interpretability of the evolved models. In addition, the benefits provided by the online architecture are exemplified by extracting accurate classification models from large data sets.Overall, the advances and key insights provided in this thesis help advance our understanding of how LCSs work and prepare these types of systems to face increasingly difficult problems, which abound in current industrial and scientific applications. Furthermore, experimental results highlight the robustness and competitiveness of LCSs with respect to other machine learning techniques, which encourages their use to face new challenging real-world applications.

Page generated in 0.3169 seconds