• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 4
  • Tagged with
  • 12
  • 12
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Image-Based Biomarker Localization from Regression Networks

Cano Espinosa, Carlos 26 September 2019 (has links)
La inteligencia artificial, y en concreto la desarrollada mediante aprendizaje profundo, se ha instaurado firmemente en nuestra sociedad en la última década. Los avances tecnológicos han hecho posible su uso en todos los ámbitos, lo que ha impulsado la investigación y el desarrollo de nuevos métodos que superan enormemente a lo que hasta hace poco era lo que se consideraba más avanzado. Las técnicas tradicionales han sido sustituidas por redes neuronales que permiten obtener resultados de mejor calidad de una forma mucho más rápida. Esto ha sido posible principalmente por dos factores: Primero, el avance en la tecnología de procesadores gráficos, que permiten una alta paralelización, ha permitido el desarrollo de técnicas que hasta la fecha eran completamente inviables debido a su coste temporal. Segundo, la proliferación de la ``cultura de los datos'' en la que estos son tratados como un recurso imprescindible, sumado al abaratamiento de la capacidad de almacenamiento digital, ha propiciado la aparición de grandes bases de datos de todo tipo y para todo propósito, creciendo exponencialmente con el tiempo y con una calidad cada vez superior debido a que se diseñan con el propósito específico de servir como base a estos tipos de sistemas inteligentes. Uno de los ámbitos que más se han beneficiado por estas técnicas es el entorno médico. La era de la digitalización ha hecho posible la recopilación de datos con información de pacientes, enfermedades, tratamientos, etc. No obstante, algo que diferencia al entorno médico de muchos otros ámbitos es que para poder atender correctamente a un paciente y valorar su estado es necesario la opinión de un experto, lo que provoca cierta inseguridad en el uso de los sistemas inteligentes, ya que estos hasta la fecha tienen una gran falta de explicabilidad. Es decir, pueden por ejemplo predecir, categorizar o localizar una enfermedad, pero no es fácilmente interpretable el cómo ha llegado a esa conclusión, cosa que es imprescindible conocer antes de tomar una decisión que puede ser crítica para el paciente. Además, este tipo de técnicas aplicadas al entorno médico tienen un problema añadido. Puesto que las bases de datos suelen provenir de diferentes instituciones, con una diversidad importante en cuanto a los modelos de máquinas empleadas para la obtención de estos datos, cada una con unas propiedades y características diferentes. Por ejemplo, suele existir una diferencia importante en los resultados al aplicar un método que se entrenó con datos provenientes de un hospital, en datos de otro diferente. Para hacer uso de estas bases de datos se requiere que sean lo suficientemente grandes como para poder generalizar de manera adecuada este hecho. Por otro lado, nos encontramos con que las bases de datos suelen estar etiquetadas por varios especialistas, por lo que se introduce cierto grado de diversidad subjetiva e incluso algunos errores que han de tenerse en cuenta. No obstante, en los últimos años se está haciendo un esfuerzo importante en solventar todos estos problemas. Concretamente en el campo de la interpretabilidad, aunque aún es un tema que está en sus fases más tempranas, surgen muchas propuestas que lo abordan desde diferentes perspectivas. Con ello en mente, esta investigación hace su aporte centrándose en redes neuronales para la regresión de biomarcadores, proponiendo un método capaz de indicar la localización de aquellas estructuras, órganos, tejidos o fluidos a partir de los cuales se infieren. Para ello, únicamente se dispone del valor agregado final de dichos biomarcadores y se pretende obtener una localización que explique dicho valor. En esta tesis se analizarán las redes de regresión directa, proponiendo una arquitectura para el cálculo de la Enfermedad de las Arterias Coronarias (CAD), haciendo un estudio de los diferentes elementos que la compone, incluyendo la función de coste empleada y cómo afecta al resultado dependiendo de las propiedades de los datos utilizados para su entrenamiento. Los resultados se validan en otros dos problemas de regresión, Área del Musculo Pectoral (PMA) y Área de Grasa Subcutánea (SFA). Como resultado de esta tesis podemos concluir que la regresión directa de los biomarcadores es una tarea totalmente viable, obteniendo altos índices de correlación entre los resultados calculados por este tipo de redes y la referencia real obtenida de la evaluación de un especialista en el campo al cual se aplica. En segundo lugar, la percepción de este tipo de sistemas en el entorno médico puede mejorarse si, junto con el resultado de la regresión, se proporciona una localización que guíe al especialista para inferir de dónde proviene este valor, centrando su atención en una región específica de la imagen. En esta tesis se profundiza en las redes de regresión de biomarcadores y permitiéndoles localizar las estructuras utilizadas para inferir el valor del biomarcador.
2

Técnicas de análisis basadas en voxel aplicadas a imágenes FDG-PET como apoyo en el diagnóstico de pacientes con traumatismo craneoencefálico

Lull Noguera, Nuria 20 June 2012 (has links)
En el Servicio de Daño Cerebral del Hospital Valencia al Mar de Valencia, hasta ahora, el daño funcional que tienen los pacientes que han sufrido un traumatismo craneoencefálico (TCE) se evaluaba de manera cualitativa a través de imágenes FDG-PET (Fluorodeoxyglucose Positron Emission Tomography). En este trabajo de tesis se propone utilizar técnicas de análisis basado en vóxel para poder evaluar las imágenes FDG-PET de manera cuantitativa, para ello se presenta una adaptación de la metodología morfometría basada en vóxel. El objetivo final de la evaluación cuantitativa de las imágenes es que ésta sirva de apoyo para el pronóstico sobre el grado de independencia de los pacientes. Primero se aplicaron las técnicas de análisis basado en vóxel a un único caso longitudinal, en el que se disponían de dos imágenes FDG-PET de un paciente que sufre una encefalitis herpética (primera imagen) y tiene una recaída un año después (segunda imagen). En este caso se realizó una sustracción de las imágenes volumétricas PET, que fue muy útil para poder relacionar las diferentes consecuencias de cada episodio. Esto también ayudó a confirmar la hipótesis de un fenómeno bi-fásico, en contra de la hipótesis progresiva/degenerativa. A continuación, se aplicaron las técnicas de análisis basado en vóxel a nivel de grupo para estudiar la relación entre el metabolismo talámico expresado en las imágenes FDG-PET y el estado neurológico para los diferentes grupos de pacientes que han sufrido un TCE. Esto permitió conocer que existen diferencias metabólicas entre los distintos estados neurológicos y que cuanto peor fuese el estado neurológico del paciente menor metabolismo talámico tenía. El proceso de recuperación de los pacientes que han sufrido un TCE atraviesa diferentes estados neurológicos comenzando por el estado de coma. A lo largo de este proceso el personal sanitario va realizando pruebas para ver en qué estado neurológico se encuentra el paciente y en función de éste poder / Lull Noguera, N. (2012). Técnicas de análisis basadas en voxel aplicadas a imágenes FDG-PET como apoyo en el diagnóstico de pacientes con traumatismo craneoencefálico [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16184
3

Método de registro no rígido basado en funciones de base radial. Aplicación a neurocirugía utilizando atlas cerebrales

Ortega Pérez, Mario 14 January 2010 (has links)
La neurocirugía es una de las especialidades más exigentes en cuanto a precisión en el procedimiento quirúrgico. Los neurocirujanos para realizar dichos procedimientos quirúrgicos pueden utilizar atlas cerebrales. Un atlas cerebral consta de imágenes del cerebro en las que expertos han identificado estructuras anatómicas y/o funcionales. Ya que no existen dos cerebros que sean iguales, es necesario adaptar el atlas cerebral a la anatomía específica del paciente. Mediante el registro con atlas cerebrales los expertos pueden identificar estructuras que difícilmente son visibles en la mayoría de modalidades de imagen médica. En esta tesis se presenta un nuevo método de registro entre atlas cerebrales e imágenes de Resonancia Magnética. Las hipótesis de trabajo son las siguientes: 1.Un atlas cerebral deformable que utilice funciones de base radial con soporte compacto y Modelos Activos de Apariencia permitirá localizar estructuras cerebrales en imágenes de RM con un error de 1 a 2 mm. Error del mismo orden que los actuales procedimientos quirúrgicos. 2. Las funciones de base radial con soporte compacto presentan ventajas frente a las funciones de base radial como la Thin Plate Spline en el problema de registro de imágenes. Dichas ventajas son: localidad de la transformación, control sobre la naturaleza de la transformación, menor coste computacional, y mayor estabilidad numérica. Para comprobar las hipótesis, se ha desarrollado: Un nuevo método de registro no rígido de atlas cerebrales en imágenes de RM basado en el uso de diferentes funciones de base radial con soporte compacto, dentro de las cuales, la función de base radial con soporte compacto de Wu se ha utilizado por primera vez en el campo de registro de imágenes médicas. Un método de segmentación del córtex y ventrículos en imágenes de RM basado en el atlas de Talairach-Tournoux junto con Modelos Activos de Apariencia. Un algoritmo que permite la reconstrucción tridimensional del atlas de Talairach / Ortega Pérez, M. (2009). Método de registro no rígido basado en funciones de base radial. Aplicación a neurocirugía utilizando atlas cerebrales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6865
4

Registro multimodal de mamografías: resonancia magnética y rayos-x

Solves Llorens, Juan Antonio 21 July 2014 (has links)
Solves Llorens, JA. (2014). Registro multimodal de mamografías: resonancia magnética y rayos-x [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/38940
5

Advanced techniques in medical image segmentation of the liver

López Mir, Fernando 07 January 2016 (has links)
Tesis por compendio / [EN] Image segmentation is, along with multimodal and monomodal registration, the operation with the greatest applicability in medical image processing. There are many operations and filters, as much as applications and cases, where the segmentation of an organic tissue is the first step. The case of liver segmentation in radiological images is, after the brain, that on which the highest number of scientific publications can be found. This is due, on the one hand, to the need to continue innovating in existing algorithms and, on the other hand, to the applicability in many situations related to diagnosis, treatment and monitoring of liver diseases but also for clinical planning. In the case of magnetic resonance imaging (MRI), only in recent years some solutions have achieved good results in terms of accuracy and robustness in the segmentation of the liver. However these algorithms are generally not user-friendly. In the case of computed tomography (CT) scans more methodologies and solutions have been developed but it is difficult to find a good trade-off between accuracy and practical clinical use. To improve the state-of-the-art in both cases (MRI and CT), a common methodology to design and develop two liver segmentation algorithms in those imaging modalities has been proposed in this thesis. The second step has been the validation of both algorithms. In the case of CT images, there exist public databases with images segmented manually by experts that the scientific community uses as a common link for the validation and comparison of their algorithms. The validation is done by obtaining certain coefficients of similarity between the manual and the automatic segmentation. This way of validating the accuracy of the algorithm has been followed in this thesis, except in the case of magnetic resonance imaging because, at present, there are no databases publicly available. In this case, there aren't public or accessible images. Accordingly, a private database has been created where several expert radiologists have manually segmented different studies of patients that have been used as a reference. This database is composed by 17 studies (with more than 1,500 images), so the validation of this method in MRI is one of the more extensive currently published. In the validation stage, an accuracy above 90% in the Jaccard and Dice coefficients has been achieved. The vast majority of the compared authors achieves similar values. However, in general, the algorithms proposed in this thesis are more user-friendly for clinical environments because the computational cost is lower, the clinical interaction is non-existent and it is not necessary an initiation in the case of the magnetic resonance algorithm and a small initiation (it is only necessary to introduce a manual seed) for the computed tomography algorithm. In this thesis, a third hypothesis that makes use of the results of liver segmentation in MRI combined to augmented reality algorithms has also been developed. Specifically, a real and innocuous study, non-invasive for clinician and patient has been designed and validated through it has been shown that the use of this technology creates benefits in terms of greater accuracy and less variability versus the non-use in a particular case of laparoscopic surgery. / [ES] La segmentación de imágenes es, junto al registro multimodal y monomodal, la operación con mayor aplicabilidad en tratamiento digital de imagen médica. Son multitud las operaciones y filtros, así como las aplicaciones y casuística, que derivan de una segmentación de un tejido orgánico. El caso de segmentación del hígado en imágenes radiológicas es, después del cerebro, la que mayor número de publicaciones científicas podemos encontrar. Esto es debido por un lado a la necesidad de seguir innovando en los algoritmos ya existentes y por otro a la gran aplicabilidad que tiene en muchas situaciones relacionadas con el diagnóstico, tratamiento y seguimiento de patologías hepáticas pero también para la planificación clínica de las mismas. En el caso de imágenes de resonancia magnética, sólo en los últimos años han aparecido soluciones que consiguen buenos resultados en cuanto a precisión y robustez en la segmentación del hígado. Sin embargo dichos algoritmos, por lo general son poco utilizables en el ambiente clínico. En el caso de imágenes de tomografía computarizada encontramos mucha más variedad de metodologías y soluciones propuestas pero es difícil encontrar un equilibrio entre precisión y uso práctico clínico. Es por ello que para mejorar el estado del arte en ambos casos (imágenes de resonancia magnética y tomografía computarizada) en esta tesis se ha planteado una metodología común a la hora de diseñar y desarrollar sendos algoritmos de segmentación del hígado en las citadas modalidades de imágenes anatómicas. El segundo paso ha sido la validación de ambos algoritmos. En el caso de imágenes de tomografía computarizada existen bases de datos públicas con imágenes segmentadas manualmente por expertos y que la comunidad científica suele utilizar como nexo común a la hora de validar y posteriormente comparar sus algoritmos. La validación se hace mediante la obtención de determinados coeficientes de similitud entre la imagen segmentada manualmente por los expertos y las que nos proporciona el algoritmo. Esta forma de validar la precisión del algoritmo ha sido la seguida en esta tesis, con la salvedad que en el caso de imágenes de resonancia magnética no existen bases de datos de acceso público. Por ello, y para este caso, lo que se ha hecho es la creación previa de una base de datos propia donde diferentes expertos radiólogos han segmentado manualmente diferentes estudios de pacientes con el fin de que puedan servir como referencia y se pueda seguir la misma metodología que en el caso anterior. Dicha base de datos ha hecho posible que la validación se haga en 17 estudios (con más de 1.500 imágenes), lo que convierte la validación de este método de segmentación del hígado en imágenes de resonancia magnética en una de las más extensas publicadas hasta la fecha. La validación y posterior comparación han dejado patente una precisión superior al 90% reflejado en el coeficiente de Jaccard y Dice, muy en consonancia con valores publicados por la inmensa mayoría de autores que se han podido comparar. Sin embargo, y en general, los algoritmos planteados en esta tesis han obtenido unos criterios de uso mucho mayores, ya que en general presentan menores costes de computación, una interacción clínica casi nula y una iniciación nula en el caso del algoritmo de resonancia magnética y casi nula en el caso de algoritmos de tomografía computarizada. En esta tesis, también se ha abordado un tercer punto que hace uso de los resultados obtenidos en la segmentación del hígado en imágenes de resonancia magnética. Para ello, y haciendo uso de algoritmos de realidad aumentada, se ha diseñado y validado un estudio real inocuo y no invasivo para el clínico y para el paciente donde se ha demostrado que la utilización de esta tecnología reporta mayores beneficios en cuanto a mayor precisión y menor variabilidad frente a su no uso en un caso concreto de ciru / [CA] La segmentació d'imatges és, al costat del registre multimodal i monomodal, l'operació amb major aplicabilitat en tractament digital d'imatge mèdica. Són multitud les operacions i filtres, així com les aplicacions i casuística, que comencen en la segmentació d'un teixit orgànic. El cas de segmentació del fetge en imatges radiològiques és, després del cervell, la que major nombre de publicacions científiques podem trobar. Això és degut per una banda a la necessitat de seguir innovant en els algoritmes ja existents i per un altre a la gran aplicabilitat que té en moltes situacions relacionades amb el diagnòstic, tractament i seguiment de patologies hepàtiques però també per a la planificació clínica de les mateixes. En el cas d'imatges de ressonància magnètica, només en els últims anys han aparegut solucions que aconsegueixen bons resultats quant a precisió i robustesa en la segmentació del fetge. No obstant això aquests algoritmes, en general són poc utilitzables en l'ambient clínic. En el cas d'imatges de tomografia computeritzada trobem molta més varietat de metodologies i solucions proposades però és difícil trobar un equilibri entre precisió i ús pràctic clínic. És per això que per millorar l'estat de l'art en els dos casos (imatges de ressonància magnètica i tomografia computeritzada) en aquesta tesi s'ha plantejat una metodologia comuna a l'hora de dissenyar i desenvolupar dos algoritmes de segmentació del fetge en les esmentades modalitats d'imatges anatòmiques. El segon pas ha estat la validació de tots dos algoritmes. En el cas d'imatges de tomografia computeritzada hi ha bases de dades públiques amb imatges segmentades manualment per experts i que la comunitat científica sol utilitzar com a nexe comú a l'hora de validar i posteriorment comparar els seus algoritmes. La validació es fa mitjançant l'obtenció de determinats coeficients de similitud entre la imatge segmentada manualment pels experts i les que ens proporciona l'algoritme. Aquesta forma de validar la precisió de l'algoritme ha estat la seguida en aquesta tesi, amb l'excepció que en el cas d'imatges de ressonància magnètica no hi ha bases de dades d'accés públic. Per això, i per a aquest cas, el que s'ha fet és la creació prèvia d'una base de dades pròpia on diferents experts radiòlegs han segmentat manualment diferents estudis de pacients amb la finalitat que puguen servir com a referència i es puga seguir la mateixa metodologia que en el cas anterior. Aquesta base de dades ha fet possible que la validació es faja en 17 estudis (amb més de 1.500 imatges), cosa que converteix la validació d'aquest mètode de segmentació del fetge en imatges de ressonància magnètica en una de les més extenses publicades fins a la data. La validació i posterior comparació han deixat patent una precisió superior al 90 \% reflectit en el coeficient de \ textit {Jaccard} i \ textit {Dice}, molt d'acord amb valors publicats per la immensa majoria d'autors en que s'ha pogut comparar. No obstant això, i en general, els algoritmes plantejats en aquesta tesi han obtingut uns criteris d'ús molt més grans, ja que en general presenten menors costos de computació, una interacció clínica quasi nul·la i una iniciació nul·la en el cas de l'algoritme de ressonància magnètica i quasi nul·la en el cas d'algoritmes de tomografia computeritzada. En aquesta tesi, també s'ha abordat un tercer punt que fa ús dels resultats obtinguts en la segmentació del fetge en imatges de ressonància magnètica. Per a això, i fent ús d'algoritmes de realitat augmentada, s'ha dissenyat i validat un estudi real innocu i no invasiu per al clínic i per al pacient on s'ha demostrat que la utilització d'aquesta tecnologia reporta més beneficis pel que fa a major precisió i menor variabilitat enfront del seu no ús en un cas concret de cirurgia amb laparoscòpia. / López Mir, F. (2015). Advanced techniques in medical image segmentation of the liver [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59428 / Premios Extraordinarios de tesis doctorales / Compendio
6

Cloud CEIB I+D. Sistema de gestión y extracción de conocimiento de la imagen médica

Salinas Serrano, José María 20 June 2013 (has links)
No description available.
7

Análisis y desarrollo de algoritmos de altas prestaciones para reconstrucción de imagen médica TAC 3D basados en la reducción de dosis.

Chillarón Pérez, Mónica 21 January 2022 (has links)
Tesis por compendio / [ES] La prueba médica de Tomografía Computarizada (TC) es esencial actualmente en la práctica clínica para el diagnóstico y seguimiento de múltiples enfermedades y lesiones, siendo una de las pruebas de imagen médica más importante por la gran cantidad de información que es capaz de aportar. Sin embargo, a diferencia de otros métodos de diagnóstico por imagen que son inocuos, la prueba de TC utiliza rayos X, que son ionizantes, por lo que suponen un riesgo para los pacientes. Es por ello que es necesario desarrollar métodos que permitan reducir la dosis de radiación a la que se expone a los pacientes que se realizan un estudio, sin comprometer la calidad de imagen puesto que sino se estaría sometiendo a un riesgo a estas personas sin que un diagnóstico de calidad esté garantizado. Durante el desarrollo de esta tesis se han investigado métodos de reconstrucción de imagen TC que se basan en reducir el número de proyecciones usadas, con el objetivo de reducir el tiempo de exposición a los rayos X. Esta estrategia de reducción de dosis está en fase de investigación, a diferencia de otras que están implantadas en la práctica clínica y ya han sido desarrolladas por los propios fabricantes de los escáneres. Por tanto, nos hemos centrado en los llamados métodos algebraicos de reconstrucción, que son los más apropiados para este tipo de adquisición de proyecciones puesto que son capaces de trabajar con menos información que los métodos clásicos conservando una buena calidad de imagen. En concreto, se ha estudiado a fondo el comportamiento del método LSQR para la resolución de este problema, combinado con una técnica de filtrado llamada Soft Thresholding Filter y una técnica de aceleración llamada FISTA. Además, se ha introducido el filtro de imagen Bilateral que es capaz de mejorar la calidad de las imágenes cuando se combina con los métodos anteriores. El estudio multiparamétrico realizado se ha llevado a cabo en un entorno de computación distribuida Grid, para analizar cómo los distintos parámetros que intervienen en el proceso de reconstrucción pueden influir sobre la imagen resultado. Dicho estudio se ha diseñado para hacer uso de la potencia de cómputo de la plataforma distribuida aunque el software que se necesita no esté disponible. La instalación de dicho software se puede realizar en el tiempo de ejecución de los trabajos, o en se puede empaquetar en una imagen que estará instalada en un contenedor Docker, lo que es una opción muy interesante para sistemas donde no tengamos privilegios. El esquema seguido para la creación y lanzamiento de los trabajos es fácilmente reproducible. Por otra parte, se han planteado dos métodos algebraicos directos para la reconstrucción de TC basados en la factorización de la matriz que modela el sistema. El primero es el método SVD, que se ha probado mediante la librería SLEPc, obteniendo mayores tasas de uso de memoria principal, por lo que ha sido descartado en favor del método QR. La primera aproximación a la resolución se ha hecho mediante la librería SuiteSparseQR, desarrollando después un método propio siguiendo la técnica Out-Of-Core que permite almacenar las matrices en el propio disco duro en lugar de cargarlas en memoria, por lo que el tamaño del problema puede aumentar sin que el coste del hardware sea muy alto. Dicho método obtiene reconstrucciones de alta calidad cuando el rango de la matriz factorizada es completo. En los resultados se muestra como para una resolución alta, garantizar el rango completo todavía supone una reducción del número de proyecciones con respecto a métodos tradicionales. Por tanto, en esta tesis se ha llevado a cabo la investigación y el posterior desarrollo mediante librerías y técnicas de computación de Altas Prestaciones de varios métodos algebraicos de reconstrucción de TC basados en la reducción de proyecciones que permiten mantener una buena calidad de imagen. Dichos métodos han sido optimizados para lograr los menores tiempos de reconstrucción posibles, con el fin de hacerlos competitivos y que algún día puedan ser instaurados en la práctica clínica. / [CA] Actualment, la prova mèdica de tomografia computeritzada (TC) és essencial en la pràctica clínica per al diagnòstic i el seguiment de múltiples malalties i lesions, sent una de les proves d'imatge mèdica més importants a causa de la gran quantitat d'informació que és capaç d'oferir. Tanmateix, a diferència d'altres mètodes d'imatge médica, la prova CT utilitza raigs X, que són ionitzants i suposen un risc per als pacients. Per això, és necessari desenvolupar mètodes que permetin reduir la dosi de radiació a la qual estan exposats els pacients sotmesos a un estudi, sense comprometre la qualitat de la imatge, ja que en cas contrari estarien sotmetent a aquestes persones a un risc sense que es garantís l'avantatge d'un diagnòstic d'alta qualitat. Durant el desenvolupament d'aquesta tesi, s'han investigat diversos mètodes de reconstrucció d'imatges CT basats en la reducció del nombre de projeccions utilitzades, amb l'objectiu de reduir el temps d'exposició als raigs X. Aquesta estratègia de reducció de dosis es troba en fase investigació, a diferència d'altres que s'implementen a la pràctica clínica i que ja han estat desenvolupades pels propis fabricants d'escàners. Per tant, ens hem centrat en els anomenats mètodes de reconstrucció algebraica, que són els més adequats per a aquest tipus d'adquisició de projecció, ja que són capaços de treballar amb menys informació que els mètodes clàssics mantenint una bona qualitat d'imatge. Concretament, s'ha estudiat a fons el comportament del mètode LSQR per resoldre aquest problema, combinat amb una tècnica de filtratge anomenada Soft Thresholding Filter i una tècnica d'acceleració anomenada FISTA. A més, s'ha introduït un filtre d'imatges anomenat filtre bilateral, que és capaç de millorar la qualitat de les imatges quan es combina amb els mètodes anteriors. L'estudi multiparamètric de LSQR es va dur a terme en un entorn informàtic distribuït Grid, per analitzar com els diferents paràmetres implicats en el procés de reconstrucció poden influir en la imatge resultant. Aquest estudi ha estat dissenyat per fer ús de la potència de càlcul de la plataforma distribuïda encara que el programari requerit no estigui disponible. La instal·lació d'aquest programari es pot fer en el moment d'executar els treballs o es pot empaquetar en una imatge que s'instal·larà en un contenidor Docker, que és una opció molt interessant per a sistemes on no tenim privilegis. L'esquema seguit per a la creació i el llançament dels treballs es pot reproduir fàcilment per a estudis multiparamètrics d'aquest tipus. D'altra banda, s'han proposat dos mètodes algebraics directes per a la reconstrucció CT basats en la factorització de la matriu que modela el sistema. El primer és el mètode SVD, que s'ha provat mitjançant la biblioteca SLEPc, obtenint taxes d'ús més alt de memòria principal, motiu pel qual s'ha descartat a favor del mètode QR. La primera aproximació a la resolució s'ha fet a través de la biblioteca SuiteSparseQR, desenvolupant posteriorment la nostra pròpia implementació mitjançant la tècnica Out-Of-Core que permet emmagatzemar les matrius al disc dur en lloc de carregar-les a la memòria, de manera que la mida de el problema pot augmentar sense que el cost del maquinari sigui molt alt. Aquest mètode obté reconstruccions d'alta qualitat quan el rang de la matriu factoritzada és complet. En els resultats es demostra que per a una alta resolució, garantir el rang complet encara significa una reducció del nombre de projeccions en comparació amb els mètodes tradicionals. Per tant, en aquesta tesi s'ha dut a terme la investigació i el desenvolupament posterior de diversos mètodes de reconstrucció algebraica de CT mitjançant biblioteques i tècniques de computació d'altes prestacions. Aquests mètodes basats en la reducció de projeccions, que permeten mantenir una bona qualitat d’imatge, s’han optimitzat per aconseguir els temps de reconstrucció més breus possibles, per tal de fer-los competitius perquè algun dia puguin implementarse a la pràctica clínica. / [EN] The Computerized Tomography (CT) medical test is currently essential in clinical practice for the diagnosis and monitoring of multiple diseases and injuries, being one of the most important medical imaging tests due to the large amount of information it is capable of providing. However, unlike other safe imaging methods, the CT test uses X-rays, which are ionizing, posing a risk to patients. That is why it is necessary to develop methods that allow reducing the radiation dose to which patients undergoing a study are exposed, without compromising image quality since otherwise they would be subjecting these people to a risk without the benefit of a high-quality diagnosis being guaranteed. During the development of this thesis, several CT image reconstruction methods that are based on reducing the number of projections used have been investigated, with the aim of reducing the time of exposure to X-rays. This dose reduction strategy is in research phase, unlike others that are implemented in clinical practice and have already been developed by the scanner manufacturers themselves. Therefore, we have focused on the algebraic reconstruction methods, which are the most appropriate for this type of projection acquisition since they are capable of working with less information than the classical methods while maintaining good image quality. Specifically, the behavior of the LSQR method to solve this problem has been thoroughly studied, combined with a filtering technique called Soft Thresholding Filter and an acceleration technique called FISTA. In addition, the so-called Bilateral filter has been introduced, which is capable of improving the quality of images when combined with the above methods. The multiparametric LSQR study was carried out in a Grid distributed computing environment, to analyze how the different parameters involved in the reconstruction process can influence the resulting image. This study has been designed to make use of the computing power of the distributed platform even if the software required is not available. The installation of said software can be done at the time of execution of the jobs, or it can be packaged in an image that will be installed in a Docker container, which is a very interesting option for systems where we do not have privileges. The scheme followed for the creation and launch of the jobs is easily reproducible for multiparametric studies of this type. On the other hand, two direct algebraic methods have been proposed for CT reconstruction based on the factorization of the matrix that models the system. The first is the SVD method, which has been tested using the SLEPc library, obtaining higher rates of main memory usage, which is why it has been discarded in favor of the QR method. The first approximation to the resolution has been made through the SuiteSparseQR library, later developing our own implementation using the Out-Of-Core technique that allows the matrices to be stored on the hard drive itself instead of loading them in memory, so the size of the problem can increase without the cost of the hardware being very high. This method obtains high-quality reconstructions when the rank of the factored matrix is complete. In the results it is shown that for a high resolution, guaranteeing the full rank still means a reduction in the number of projections compared to traditional methods. Therefore, in this thesis, research and subsequent development of several algebraic CT reconstruction methods has been carried out using libraries and High Performance Computing techniques. These methods based on the reduction of projections, which allows maintaining good image quality, and have been optimized to achieve the shortest possible reconstruction times, in order to make them competitive so that one day they can be implemented in clinical practice. / This research has been supported by Universitat Politècnica de València and partially funded by TIN2015-66972-C5-4-R, ENE2014-59442-P-AR and TIN2013-44390-R projects of the "Ministerio de Economía y Competitividad" of Spain, as well as the Spanish ”Generalitat Valenciana” PROMETEOII/2014/008, PROMETEO/2018/035 projects and ACIF/2017/075 predoctoral grant. This work has also been co-financed by FEDER and FSE funds, and the “Spanish Ministry of Science, Innovation and Universities” under Grant RTI2018-098156-B-C54 / Chillarón Pérez, M. (2021). Análisis y desarrollo de algoritmos de altas prestaciones para reconstrucción de imagen médica TAC 3D basados en la reducción de dosis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/180116 / Compendio
8

Implementation of New Algorithms for an Accurate Gamma-Ray Impact Determination in Scintillation Monolithic Blocks for PET Applications

Freire López-Fando, Marta 07 September 2023 (has links)
Tesis por compendio / [ES] La Tomografía por Emisión de Positrones (PET) es una potente técnica de imagen que proporciona mediante el uso de radiofármacos específicos medidas cuantitativas de los procesos biológicos y fisiológicos que tienen lugar en el organismo a nivel molecular. Las imágenes PET proporcionan información funcional que permite el diagnóstico precoz y el seguimiento personalizado del tratamiento terapéutico. La PET tiene aplicaciones en diversas áreas clínicas y de investigación, como la oncología, la neurología o la cardiología, entre otras. Los esfuerzos por mejorar las prestaciones de los sistemas PET se centran en aumentar su sensibilidad y calidad de imagen, lo que permite una evaluación clínica más precisa. En las imágenes PET, se inyecta al paciente un radiotrazador marcado con un radionúclido emisor de positrones que se distribuye por todo el cuerpo. Durante la desintegración radiactiva del trazador, el isótopo emite un positrón que se aniquila con un electrón del tejido circundante, generando dos rayos gamma de 511 keV emitidos a aproximadamente 180º. La técnica PET se basa por tanto en la detección simultánea de estos dos rayos gamma, denominados fotones de aniquilación, empleando habitualmente un anillo de detectores alrededor del paciente. Mejorando el diseño y el rendimiento de estos detectores, se mejoran las capacidades diagnósticas que ofrece la imagen PET. Para aumentar el rendimiento, se ha sugerido utilizar detectores basados en diseños de cristales monolíticos, debido a sus ventajas en comparación con los detectores pixelados. Sin embargo, su implementación en escáneres comerciales requiere superar algunos retos relacionados principalmente con los métodos de posicionamiento y los procedimientos de calibración necesarios para proporcionar las coordenadas de impacto del fotón de aniquilación y el tiempo de llegada de los fotones. Esta tesis doctoral se centra en el desarrollo y validación experimental de metodologías para la determinación precisa de esta información en detectores monolíticos, haciendo hincapié en su aplicación práctica también a sistemas PET completos. Durante esta tesis se han estudiado los principios fundamentales de los detectores PET monolíticos para comprender su comportamiento y limitaciones. En primer lugar, se han considerado las configuraciones típicas de detectores monolíticos basadas en bloques de centelleo continuo acoplados a matrices de SiPMs planas; además, también se han evaluado y validado otros enfoques novedosos. Se han desarrollado dos metodologías principales, una basada en técnicas analíticas y otra en algoritmos de Aprendizaje Profundo, para el posicionamiento 3D de la interacción del fotón con el fin de aumentar el rendimiento global del detector. Finalmente, los métodos propuestos han sido validados a nivel de detector, pero también en diferentes escáneres PET desarrollados en i3M. La presente tesis se basa en un compendio de los artículos más relevantes publicados en revistas revisadas por pares por el doctorando y está organizada de la siguiente manera. El Capítulo I presenta una introducción al trabajo de la tesis, compuesto por tres secciones: Imagen Médica, principios de la Tomografía por Emisión de Positrones y, Estimación de posición y calibración en detectores monolíticos. El Capítulo II contiene los objetivos específicos de esta tesis y las principales contribuciones del candidato a este campo. Este capítulo también incluye algunas metodologías y resultados recientes que aún no han sido publicados. El Capítulo III colecciona una copia de los cuatro artículos publicados seleccionados para el compendio, en los que el candidato es el primer autor [1]-[4]. En el Capítulo IV se discuten los principales resultados y conclusiones alcanzados durante la tesis. Por último, el Capítulo V presenta la discusión de esta tesis, resumiendo las principales contribuciones y destacando los logros científicos. / [CAT] La Tomografia per Emissió de Positrons (PET) és una potent tècnica d'imatge que proporciona mitjançant l'ús de radiofàrmacs específics mesures quantitatives dels processos biològics i fisiològics que tenen lloc en l'organisme a nivell molecular. Les imatges PET proporcionen informació funcional que permet el diagnòstic precoç i el seguiment personalitzat del tractament terapèutic. La PET té aplicacions en diverses àrees cliniques y d¿investigació, com l'oncologia, la neurologia o la cardiologia, entre altres. Els esforços per millorar les prestacions dels sistemes PET se centren en millorar la seua sensibilitat i qualitat d'imatge, la qual cosa permet una avaluació clínica més precisa més precís. En les imatges PET, s'injecta al pacient un radiotraçador marcat amb un radionúclid emissor de positrons que es distribueix per tot el cos. Durant la desintegració radioactiva del traçador, l'isòtop emet un positró que s'aniquila amb un electró del teixit circumdant, generant dos raigs gamma de 511 keV emesos a aproximadament 180º. La tècnica PET es basa per tant en la detecció simultània d'aquests dos raigs gamma, denominats fotons d'anihilació, emprant habitualment un anell de detectors al voltant del pacient. Millorant el disseny i el rendiment d'aquests detectors, es millora les capacitats diagnòstiques que ofereix la imatge PET. Per a augmentar el rendiment, s'ha suggerit utilitzar detectors basats en dissenys de cristalls monolítics, a causa dels seus avantatges en comparació amb els detectors pixelats. No obstant això, la seua implementació en escàners comercials requereix superar alguns reptes relacionats principalment amb els mètodes de posicionament i els procediments de calibració necessaris per a proporcionar les coordenades d'impacte del fotó d'anihilació i el temps d'arribada dels fotons. Aquesta tesi doctoral se centra en el desenvolupament i validació experimental de metodologies per a la determinació precisa d'aquesta informació en detectors monolítics, posant l'accent en la seua aplicació pràctica també a sistemes PET complets. Durant aquesta tesi s'han estudiat els principis fonamentals dels detectors PET monolítics per a comprendre el seu comportament i limitacions. En primer lloc, s'han considerat les configuracions típiques de detectors monolítics basats en blocs de centellege continu acoblats a matrius SiPM planes; a més, també s'han evaluat i validat altres enfocaments nous. S'han desenvolupat dues metodologies principals, una basada en tècniques analítiques i una altra en algoritmes d'Aprenentatge Profund, pel posicionament 3D de la interacció del fotó amb la finalitat d'augmentar el rendiment global del detector. Finalment, els mètodes proposats han sigut validats a nivell de detector però també en diferents escàners PET desenvolupats en i3M. La present tesi es basa en un compendi dels articles més rellevants publicats en revistes revisades per parells pel doctorand i està organitzada de la següent manera. El Capítol I presenta una introducció al treball de tesi, compost per tres seccions: Imatge Mèdica, principis de la Tomografia per Emissió de Positrons i, Estimació de posició i calibració en detectors monolítics. El Capítol II conté els objectius específics d'aquesta tesi i les principals contribucions del candidat a aquest camp. Aquest capítol també inclou algunes metodologies i resultats recents que encara no han sigut publicats. El Capítol III col·lecciona una còpia dels quatre articles publicats seleccionats pel compendi, en els quals el candidat és el primer autor [1]-[4]. En el Capítol IV es discuteixen els principals resultats i conclusions aconseguits durant la tesi. Finalment, el Capítol V presenta la discussió d'aquesta tesi, resumint les principals contribucions i destacant els assoliments científics. / [EN] Positron Emission Tomography (PET) is a powerful imaging technique that provides quantitative measurements of biological and physiological processes occurring within the body at the molecular level by using specific radiopharmaceuticals. PET imaging returns functional information that allows for early diagnosis and personalized therapy treatment follow up. It has applications in several research and clinical areas, such as oncology, neurology or cardiology, among others. Efforts to improve PET systems performance are focused on increasing their sensitivity and image quality, allowing for more accurate clinical assessments. In PET imaging, a radiotracer labeled with a positron-emitting radionuclide is injected to the patient and consequently, distributed throughout the body. During the radiotracer decay, the isotope emits a positron that annihilates with an electron of the surrounding tissues, generating two 511 keV gamma-rays emitted at approximately 180º. The PET technique is based therefore on the simultaneous detection of these two gamma-rays, called annihilation photons, by usually employing a ring of detectors around the patient. Improving the design and performance of these detectors, increases the diagnostic capabilities of PET imaging. To boost PET performance, it has been suggested to use detectors based on monolithic crystals designs, due to their advantages compared to pixelated detectors. However, their implementation in commercial scanners requires overcoming some challenges mostly related to photon impact positioning methods and calibration procedures to provide the impact coordinates and time of arrival of the annihilation photons. This PhD thesis focuses on the development and experimental validation of methodologies for an accurate determination of this information in monolithic detectors, emphasizing in their practical application to full PET systems. During this thesis, the main principles of monolithic-based PET detectors have been studied to understand their behavior and limitations. Typical monolithic detector configurations based on continuous scintillation blocks coupled to flat SiPM arrays have been first considered; additionally, other novel approaches have been also validated. Two main methodologies for 3D photon interaction positioning, one based on analytical methods and another based on Deep Learning algorithms, have been developed to increase the overall detector performance. The proposed methods have been validated at the detector level but also in different PET scanners developed by our group. The present thesis is based on a compendium of the most relevant papers published in peer-reviewed journals by the PhD candidate and is organized as follows. Chapter I presents an introduction to the thesis work, composed by three sections: Medical Imaging, principles of Positron Emission Tomography and, Position estimation and calibration in monolithic-based detectors. Chapter II contains the specific objectives of this thesis and the main contributions of the candidate to the field. This chapter also includes some recent methodologies and results that have not yet been published. Chapter III collects an author copy of the four published articles selected for the compendium, in which the candidate is the first author [1]-[4]. In Chapter IV the main results and conclusion achieved during the thesis are discussed. Finally, Chapter V presents the discussion of this thesis, summarizing the main contributions and highlighting the scientific achievements. / Freire López-Fando, M. (2023). Implementation of New Algorithms for an Accurate Gamma-Ray Impact Determination in Scintillation Monolithic Blocks for PET Applications [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196084 / Compendio
9

Personalization of Bone Remodelling Simulation Models for Clinical Applications

Gutiérrez Gil, Jorge 15 January 2024 (has links)
[ES] El acceso a una atención sanitaria de alta calidad es un marcador importante del desarrollo de las sociedades humanas. Los aportes tecnológicos a la medicina han mostrado un potencial relevante para descubrir procedimientos efectivos a nivel preventivo, diagnóstico y terapéutico. En particular, los métodos computacionales permiten el procesamiento eficaz de datos médicos y, por tanto, pueden modelar sistemas biológicos complejos. Esto ha influido en el desarrollo de la Medicina Personalizada (MP) durante las últimas décadas, donde la obtención de conocimiento específico de cada caso permite realizar intervenciones a medida, todo ello a un coste de recursos accesible. La simulación de remodelación ósea es un campo prometedor en el contexto de la MP. Predecir un proceso de adaptación ósea en un caso concreto puede dar lugar a numerosas aplicaciones en el campo de las enfermedades óseas, tanto a nivel clínico como experimental. Mediante la combinación del Método de Elementos Finitos (FEM) y los algoritmos de remodelación ósea, es posible obtener modelos numéricos de un hueso específico a partir de datos médicos (por ejemplo, una tomografía computarizada). Todo ello puede dar lugar a una revolución en la medicina personalizada. / [CA] L'accés a una atenció sanitària d'alta qualitat és un marcador important del desenvolupament de les societats humanes. Les aportacions tecnològiques a la medicina han mostrat un potencial rellevant per a descobrir procediments efectius a nivell preventiu, diagnòstic i terapèutic. En particular, els mètodes computacionals permeten el processament eficaç de dades mèdiques i, per tant, poden modelar sistemes biològics complexos. Això ha influït en el desenvolupament de la Medicina Personalitzada (MP) durant les últimes dècades, on l'obtenció de coneixement específic de cada cas permet realitzar intervencions a mesura, tot això a un cost de recursos accessible. La simulació de remodelació òssia és un camp prometedor en el context de la MP. Predir un procés d'adaptació òssia en un cas concret pot donar lloc a nombroses aplicacions en el camp de les malalties òssies, tant a nivell clínic com experimental. Mitjançant la combinació del Mètode d'Elements Finits (*FEM) i els algorismes de remodelació òssia, és possible obtindre models numèrics d'un os específic a partir de dades mèdiques (per exemple, una tomografia computada). Tot això pot donar lloc a una revolució en la medicina personalitzada. / [EN] Access to high-quality healthcare is an important marker of the development of human societies. Technological contributions to medicine have shown relevant potential to discover effective procedures at a preventive, diagnostic and therapeutic level. In particular, computational methods enable efficient processing of medical data and can therefore model complex biological systems. This has influenced the development of Personalized Medicine (PM) over recent decades, where obtaining specific knowledge of each case allows for tailored interventions, all at an affordable resource cost. Simulation of bone remodeling is a promising field in the context of PM. Predicting a bone adaptation process in a specific case can lead to numerous applications in the field of bone diseases, both clinically and experimentally. By combining the Finite Element Method (FEM) and bone remodeling algorithms, it is possible to obtain numerical models of a specific bone from medical data (for example, a CT scan). All of this can lead to a revolution in personalized medicine. / Thanks to the Valencian funding programme FDGENT/2018, for providing economic resources to develop this long-term work. / Gutiérrez Gil, J. (2023). Personalization of Bone Remodelling Simulation Models for Clinical Applications [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202059
10

Aprendizaje profundo y biomarcadores de imagen en el estudio de enfermedades metabólicas y hepáticas a partir de resonancia magnética y tomografía computarizada

Jimenez Pastor, Ana Maria 05 February 2024 (has links)
[ES] El síndrome metabólico se define como un conjunto de trastornos (e.g., niveles elevados de presión arterial, niveles elevados de glucosa en sangre, exceso de grasa abdominal o niveles elevados de colesterol o triglicéridos) que afectan a un individuo al mismo tiempo. La presencia de uno de estos factores no implica un riesgo elevado para la salud, sin embargo, presentar varios de ellos aumenta la probabilidad de sufrir enfermedades secundarias como la enfermedad cardiovascular o la diabetes tipo II. Las enfermedades difusas hepáticas son todas aquellas enfermedades que afectan a las células funcionales del hígado, los hepatocitos, alterando, de este modo, la función hepática. En estos procesos, los hepatocitos se ven sustituidos por adipocitos y tejido fibroso. La enfermedad de hígado graso no alcohólico es una afección reversible originada por la acumulación de triglicéridos en los hepatocitos. El alcoholismo, la obesidad, y la diabetes son las causas más comunes de esta enfermedad. Este estado del hígado es reversible si se cambia la dieta del paciente, sin embargo, si este no se cuida, la enfermedad puede ir avanzando hacia estadios más severos, desencadenando fibrosis, cirrosis e incluso carcinoma hepatocelular (CHC). La temprana detección de todos estos procesos es de gran importancia en la mejora del pronóstico de los pacientes. Así, las técnicas de imagen en combinación con modelos computacionales permiten caracterizar el tejido mediante la extracción de parámetros objetivos, conocidos como biomarcadores de imagen, relacionados con estos procesos fisiológicos y patológicos, permitiendo una estadificación más precisa de las enfermedades. Además, gracias a las técnicas de inteligencia artificial, se pueden desarrollar algoritmos de segmentación automática que permitan realizar dicha caracterización de manera completamente automática y acelerar, de este modo, el flujo radiológico. Por todo esto, en la presente tesis doctoral, se presenta una metodología para el desarrollo de modelos de segmentación y cuantificación automática, siendo aplicada a tres casos de uso. Para el estudio del síndrome metabólico se propone un método de segmentación automática de la grasa visceral y subcutánea en imágenes de tomografía computarizada (TC), para el estudio de la enfermedad hepática difusa se propone un método de segmentación hepática y cuantificación de la grasa y hierro hepáticos en imágenes de resonancia magnética (RM), y, finalmente, para el estudio del CHC, se propone un método de segmentación hepática y cuantificación de los descriptores de la curva de perfusión en imágenes de RM. Todo esto se ha integrado en una plataforma que permite su integración en la práctica clínica. Así, se han adaptado los algoritmos desarrollados para ser ejecutados en contenedores Docker de forma que, dada una imagen de entrada, generen los parámetros cuantitativos de salida junto con un informe que resuma dichos resultados; se han implementado herramientas para que los usuarios puedan interactuar con las segmentaciones generadas por los algoritmos de segmentación automática desarrollados; finalmente, éstos se han implementado de forma que generen dichas segmentaciones en formatos estándar como DICOM RT Struct o DICOM Seg, para garantizar la interoperabilidad con el resto de sistemas sanitarios. / [CA] La síndrome metabòlica es defineix com un conjunt de trastorns (e.g., nivells elevats de pressió arterial, nivells elevats de glucosa en sang, excés de greix abdominal o nivells elevats de colesterol o triglicèrids) que afecten un individu al mateix temps. La presència d'un d'aquests factors no implica un risc elevat per a la salut, no obstant això, presentar diversos d'ells augmenta la probabilitat de patir malalties secundàries com la malaltia cardiovascular o la diabetis tipus II. Les malalties difuses hepàtiques són totes aquelles malalties que afecten les cèl·lules funcionals del fetge, els hepatòcits, alterant, d'aquesta manera, la funció hepàtica. En aquests processos, els hepatòcits es veuen substituïts per adipòcits i teixit fibrós. La malaltia de fetge gras no alcohòlic és una afecció reversible originada per l'acumulació de triglicèrids en els hepatòcits. L'alcoholisme, l'obesitat, i la diabetis són les causes més comunes d'aquesta malaltia. Aquest estat del fetge és reversible si es canvia la dieta del pacient, no obstant això, si aquest no es cuida, la malaltia pot anar avançant cap a estadis més severs, desencadenant fibrosis, cirrosis i fins i tot carcinoma hepatocel·lular (CHC). La primerenca detecció de tots aquests processos és de gran importància en la millora del pronòstic dels pacients. Així, les tècniques d'imatge en combinació amb models computacionals permeten caracteritzar el teixit mitjançant l'extracció paràmetres objectius, coneguts com biomarcadores d'imatge, relacionats amb aquests processos fisiològics i patològics, permetent una estratificació més precisa de les malalties. A més, gràcies a les tècniques d'intel·ligència artificial, es poden desenvolupar algorismes de segmentació automàtica que permeten realitzar aquesta caracterització de manera completament automàtica i accelerar, d'aquesta manera, el flux radiològic. Per tot això, en la present tesi doctoral, es presenta una metodologia per al desenvolupament de models de segmentació i quantificació automàtica, sent aplicada a tres casos d'ús. Per a l'estudi de la síndrome metabòlica es proposa un mètode de segmentació automàtica del greix visceral i subcutani en imatges de tomografia computada (TC), per a l'estudi de la malaltia hepàtica difusa es proposa un mètode segmentació hepàtica i quantificació del greix i ferro hepàtics en imatges de ressonància magnètica (RM), i, finalment, per a l'estudi del CHC, es proposa un mètode de segmentació hepàtica i quantificació dels descriptors de la corba de perfusió en imatges de RM. Tot això s'ha integrat en una plataforma que permet la seua integració en la pràctica clínica. Així, s'han adaptat els algorismes desenvolupats per a ser executats en contenidors Docker de manera que, donada una imatge d'entrada, generen els paràmetres quantitatius d'eixida juntament amb un informe que resumisca aquests resultats; s'han implementat eines perquè els usuaris puguen interactuar amb les segmentacions generades pels algorismes de segmentació automàtica desenvolupats; finalment, aquests s'han implementat de manera que generen aquestes segmentacions en formats estàndard com DICOM RT Struct o DICOM Seg, per a garantir la interoperabilitat amb la resta de sistemes sanitaris. / [EN] Metabolic syndrome is defined as a group of disorders (e.g., high blood pressure, high blood glucose levels, excess abdominal fat, or high cholesterol or triglyceride levels) that affect an individual at the same time. The presence of one of these factors does not imply an elevated health risk; however, having several of them increases the probability of secondary diseases such as cardiovascular disease or type II diabetes. Diffuse liver diseases are all those diseases that affect the functional cells of the liver, the hepatocytes, thus altering liver function. In these processes, the hepatocytes are replaced by adipocytes and fibrous tissue. Non-alcoholic fatty liver disease is a reversible condition caused by the accumulation of triglycerides in hepatocytes. Alcoholism, obesity, and diabetes are the most common causes of this disease. This liver condition is reversible if the patient's diet is changed; however, if the patient is not cared for, the disease can progress to more severe stages, triggering fibrosis, cirrhosis and even hepatocellular carcinoma (HCC). Early detection of all these processes is of great importance in improving patient prognosis. Thus, imaging techniques in combination with computational models allow tissue characterization by extracting objective parameters, known as imaging biomarkers, related to these physiological and pathological processes, allowing a more accurate statification of diseases. Moreover, thanks to artificial intelligence techniques, it is possible to develop automatic segmentation algorithms that allow to perform such characterization in a fully automatic way and thus accelerate the radiological workflow. Therefore, in this PhD, a methodology for the development of automatic segmentation and quantification models is presented and applied to three use cases. For the study of metabolic syndrome, a method of automatic segmentation of visceral and subcutaneous fat in computed tomography (CT) images is proposed; for the study of diffuse liver disease, a method of liver segmentation and quantification of hepatic fat and iron in magnetic resonance imaging (MRI) is proposed; and, finally, for the study of HCC, a method of liver segmentation and quantification of perfusion curve descriptors in MRI is proposed. All this has been integrated into a platform that allows its integration into clinical practice. Thus, the developed algorithms have been adapted to be executed in Docker containers so that, given an input image, they generate the quantitative output parameters together with a report summarizing these results; tools have been implemented so that users can interact with the segmentations generated by the automatic segmentation algorithms developed; finally, these have been implemented so that they generate these segmentations in standard formats such as DICOM RT Struct or DICOM Seg, to ensure interoperability with other health systems. / Jimenez Pastor, AM. (2023). Aprendizaje profundo y biomarcadores de imagen en el estudio de enfermedades metabólicas y hepáticas a partir de resonancia magnética y tomografía computarizada [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202602

Page generated in 0.0488 seconds