Spelling suggestions: "subject:"electronical"" "subject:"electronically""
161 |
Enrichment of Archetypes with Domain Knowledge to Enhance the Consistency of Electronic Health RecordsGiménez Solano, Vicente Miguel 21 January 2022 (has links)
[ES] La consistencia de los datos de la HCE, como dimensión de la calidad, se considera un requisito esencial para la mejora de la prestación de la asistencia sanitaria, los procesos de toma de decisiones clínicas y la promoción de la investigación clínica. En este contexto, la cooperación entre la información y los modelos de dominio se considera esencial en la literatura, pero la comunidad científica no la ha abordado adecuadamente hasta la fecha.
La contribución principal de esta tesis es el desarrollo de métodos y herramientas para la inclusión de expresiones de enlaces terminológicos en reglas de consistencia. Las contribuciones específicas son:
- Definición de un método para ejecutar ECs sobre una base de datos de SNOMED CT orientada a grafos.
- Definición de métodos para simplificar ECs antes y después de su ejecución, y su validación semántica conforme al Machine Readable Concept Model de SNOMED CT (MRCM).
- Definición de un método para visualizar, explorar dinámicamente, comprender y validar subconjuntos de SNOMED CT.
- Desarrollo de SNQuery, una plataforma que ejecuta, simplifica y valida ECs y visualiza los subconjuntos resultantes.
- Definición de EHRules, un lenguaje de expresiones basado en el openEHR Expression Language para la especificación de reglas de consistencia en arquetipos, incluido el enlace terminológico de contenido, con el fin de enriquecer los arquetipos con conocimiento del dominio.
- Definición de un método para ejecutar las expresiones de EHRules con el fin de validar la consistencia de los datos de la HCE mediante la ejecución de dichas expresiones sobre instancias de datos de pacientes.
Nuestro objetivo es que estas contribuciones ayuden a mejorar la calidad de la HCE, ya que proporcionan métodos y herramientas para la validación y mejora de la consistencia de los datos de la HCE. Pretendemos, además, mediante la definición de enlaces de contenido entre modelos de información y terminologías clínicas, elevar el nivel de interoperabilidad semántica, para lo cual la definición de enlaces terminológicos es crucial. / [CA] La consistència de les dades de la HCE, com a dimensió de la qualitat, es considera un requisit essencial per a la millora de la prestació de l'assistència sanitària, els processos de presa de decisions clíniques i la promoció de la investigació clínica. En aquest context, la cooperació entre la informació i els models de domini es considera essencial en la literatura, però la comunitat científica no l'ha abordada adequadament fins hui.
La contribució principal d'aquesta tesi és el desenvolupament de mètodes i ferramentes per a la inclusió d'expressions d'enllaços terminològics en regles de consistència. Les contribucions específiques són:
- Definició d'un mètode per a executar ECs sobre una base de dades de SNOMED CT orientada a grafs.
- Definició de mètodes per a simplificar ECs abans i després de la seua execució, i la seua validació semàntica conforme al Machine Readable Concept Model de SNOMED CT (MRCM).
- Definició d'un mètode per a visualitzar, explorar dinàmicament, comprendre i validar subconjunts de SNOMED CT.
- Desenvolupament de SNQuery, una plataforma que executa, simplifica i valida ECs i visualitza els subconjunts resultants.
- Definició de EHRules, un llenguatge d'expressions basat en l'openEHR Expression Language per a l'especificació de regles de consistència en arquetips, inclòs l'enllaç terminològic de contingut, amb la finalitat d'enriquir els arquetips amb coneixement del domini.
- Definició d'un mètode per a executar les expressions de EHRules amb la finalitat de validar la consistència de les dades de la HCE mitjançant l'execució d'aquestes expressions sobre instàncies de dades de pacients.
El nostre objectiu és que aquestes contribucions ajuden a millorar la qualitat de la HCE, ja que proporcionen mètodes i ferramentes per a la validació i millora de la consistència de les dades de la HCE. Pretenem, a més, mitjançant la definició d'enllaços de contingut entre models d'informació i terminologies clíniques, elevar el nivell d'interoperabilitat semàntica, per a la qual cosa la definició d'enllaços terminològics és crucial. / [EN] Consistency of EHR data, as a dimension of quality, is considered an essential requirement to the improvement of healthcare delivery, clinical decision-making processes, and the promotion of clinical research. In this context, cooperation between information and domain models has been considered essential in the literature, but it has not been adequately addressed by the scientific community to date.
The main contribution of this thesis is the development of methods and tools for the inclusion of terminology binding expressions in consistency rules. Specific contributions are:
- Definition of a method to execute ECs over a SNOMED CT graph-oriented database.
- Definition of methods to simplify ECs before and after its execution and semantic validation according to the SNOMED CT Machine Readable Concept Model (MRCM).
- Definition of a method to visualize, dynamically explore, understand and validate SNOMED CT subsets.
- Development of SNQuery, an execution platform that executes, simplifies and validates ECs, and visualizes the resulting subsets.
- Definition of EHRules, an expression language based on the openEHR Expression Language for the specification of consistency expressions in archetypes, including value set bindings, in order to enrich archetypes with domain knowledge.
- Definition of a method to execute EHRules expressions in order to validate the consistency of EHR data by executing such rules over patient data instances.
Our objective is that these contributions help to enhance the quality of EHR, as they provide methods and tools for the validation and enhancement of the EHR data consistency. We also intend, by defining value set bindings between information models and clinical terminologies, to raise the level of semantic interoperability, for which the definition of terminological bindings is crucial. / This thesis was partially funded by Ministerio de Economía y Competitividad, “Doctorados
Industriales”, grant DIN2018-009951, and by Universitat Politècnica de València, “Formación de
Personal Investigador” (FPI-UPV). / Giménez Solano, VM. (2021). Enrichment of Archetypes with Domain Knowledge to Enhance the Consistency of Electronic Health Records [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/180082
|
162 |
Novel Cardiac Mapping Approaches and Multimodal Techniques to Unravel Multidomain Dynamics of Complex Arrhythmias Towards a Framework for Translational Mechanistic-Based Therapeutic StrategiesCalvo Saiz, Conrado Javier 02 May 2022 (has links)
[ES] Las arritmias cardíacas son un problema importante para los sistemas de salud en el mundo desarrollado debido a su alta incidencia y prevalencia a medida que la población envejece. La fibrilación auricular (FA) y la fibrilación ventricular (FV) se encuentran entre las arritmias más complejas observadas en la práctica clínica. Las consecuencias clínicas de tales alteraciones arrítmicas incluyen el desarrollo de eventos cardioembólicos complejos en la FA, y repercusiones dramáticas debido a procesos fibrilatorios sostenidos que amenazan la vida infringiendo daño neurológico tras paro cardíaco por FV, y que pueden provocar la muerte súbita cardíaca (MSC). Sin embargo, a pesar de los avances tecnológicos de las últimas décadas, sus mecanismos intrínsecos se comprenden de forma incompleta y, hasta la fecha, las estrategias terapéuticas carecen de una base mecanicista suficiente y poseen bajas tasas de éxito.
Entre los mecanismos implicados en la inducción y perpetuación de arritmias cardíacas, como la FA, se cree que las dinámicas de las fuentes focales y reentrantes de alta frecuencia, en sus diferentes modalidades, son las fuentes primarias que mantienen la arritmia. Sin embargo, se sabe poco sobre los atractores, así como, de la dinámica espacio-temporal de tales fuentes fibrilatorias primarias, específicamente, las fuentes focales o rotacionales dominantes que mantienen la arritmia. Por ello, se ha desarrollado una plataforma computacional, para comprender los factores (activos, pasivos y estructurales) determinantes, y moduladores de dicha dinámica. Esto ha permitido establecer un marco para comprender la compleja dinámica de los rotores con énfasis en sus propiedades deterministas para desarrollar herramientas basadas en los mecanismos para ayuda diagnóstica y terapéutica.
Comprender los procesos fibrilatorios es clave para desarrollar marcadores y herramientas fisiológica- y clínicamente relevantes para la ayuda de diagnóstico temprano. Específicamente, las propiedades espectrales y de tiempo-frecuencia de los procesos fibrilatorios han demostrado resaltar el comportamiento determinista principal de los mecanismos intrínsecos subyacentes a las arritmias y el impacto de tales eventos arrítmicos. Esto es especialmente relevante para determinar el pronóstico temprano de los supervivientes comatosos después de un paro cardíaco debido a fibrilación ventricular (FV).
Las técnicas de mapeo electrofisiológico, el mapeo eléctrico y óptico cardíaco, han demostrado ser recursos muy valiosos para dar forma a nuevas hipótesis y desarrollar nuevos enfoques mecanicistas y estrategias terapéuticas mejoradas. Esta tecnología permite además el trabajo multidisciplinar entre clínicos y bioingenieros, para el desarrollo y validación de dispositivos y metodologías para identificar biomarcadores multi-dominio que permitan rastrear con precisión la dinámica de las arritmias identificando fuentes dominantes y atractores con alta precisión para ser dianas de estrategias terapeúticas innovadoras. Es por ello que uno de los objetivos fundamentales ha sido la implantación y validación de nuevos sistemas de mapeo en distintas configuraciones que sirvan de plataforma de desarrollo de nuevas estrategias terapeúticas. Aunque el mapeo panorámico es el método principal y más completo para rastrear simultáneamente biomarcadores electrofisiológicos, su adopción por la comunidad científica es limitada principalmente debido al coste elevado de la tecnología. Aprovechando los avances tecnológicos recientes, nos hemos enfocado en desarrollar, y validar, sistemas de mapeo óptico de alta resolución para registro panorámico cardíaco, utilizando modelos clínicamente relevantes para la investigación básica y la bioingeniería. / [CA] Les arítmies cardíaques són un problema important per als sistemes de salut del món desenvolupat a causa de la seva alta incidència i prevalença a mesura que la població envelleix. La fibril·lació auricular (FA) i la fibril·lació ventricular (FV), es troben entre les arítmies més complexes observades a la pràctica clínica. Les conseqüències clíniques d'aquests trastorns arítmics inclouen el desenvolupament d'esdeveniments cardioembòlics complexos en FA i repercussions dramàtiques a causa de processos fibril·latoris sostinguts que posen en perill la vida amb danys neurològics posteriors a la FV, que condueixen a una aturada cardíaca i a la mort cardíaca sobtada (SCD). Tanmateix, malgrat els avanços tecnològics de les darreres dècades, els seus mecanismes intrínsecs s'entenen de forma incompleta i, fins a la data, les estratègies terapèutiques no tenen una base mecanicista suficient i tenen baixes taxes d'èxit.
La majoria dels avenços en el desenvolupament de biomarcadors òptims i noves estratègies terapèutiques en aquest camp provenen de tècniques valuoses en la investigació de mecanismes d'arítmia. Entre els mecanismes implicats en la inducció i perpetuació de les arítmies cardíaques, es creu que les fonts primàries subjacents a l'arítmia són les fonts focals reingressants d'alta freqüència dinàmica i AF, en les seves diferents modalitats. Tot i això, se sap poc sobre els atractors i la dinàmica espaciotemporal d'aquestes fonts primàries fibril·ladores, específicament les fonts rotacionals o focals dominants que mantenen l'arítmia. Per tant, s'ha desenvolupat una plataforma computacional per entendre determinants actius, passius, estructurals i moduladors d'aquestes dinàmiques. Això va permetre establir un marc per entendre la complexa dinàmica multidomini dels rotors amb ènfasi en les seves propietats deterministes per desenvolupar enfocaments mecanicistes per a l'ajuda i la teràpia diagnòstiques.
La comprensió dels processos fibril·latoris és clau per desenvolupar puntuacions i eines rellevants fisiològicament i clínicament per ajudar al diagnòstic precoç. Concretament, les propietats espectrals i de temps-freqüència dels processos fibril·latoris han demostrat destacar un comportament determinista important dels mecanismes intrínsecs subjacents a les arítmies i l'impacte d'aquests esdeveniments arítmics. Mitjançant coneixements previs, processament de senyals, tècniques d'aprenentatge automàtic i anàlisi de dades, es va desenvolupar una puntuació de risc mecanicista a la aturada cardíaca per FV.
Les tècniques de cartografia òptica cardíaca i electrofisiològica han demostrat ser recursos inestimables per donar forma a noves hipòtesis i desenvolupar nous enfocaments mecanicistes i estratègies terapèutiques. Aquesta tecnologia ha permès durant molts anys provar noves estratègies terapèutiques farmacològiques o ablatives i desenvolupar mètodes multidominis per fer un seguiment precís de la dinàmica d'arrímies que identifica fonts i atractors dominants. Tot i que el mapatge panoràmic és el mètode principal per al seguiment simultani de paràmetres electrofisiològics, la seva adopció per part de la comunitat multidisciplinària d'investigació cardiovascular està limitada principalment pel cost de la tecnologia. Aprofitant els avenços tecnològics recents, ens centrem en el desenvolupament i la validació de sistemes de mapes òptics de baix cost per a imatges panoràmiques mitjançant models clínicament rellevants per a la investigació bàsica i la bioenginyeria. / [EN] Cardiac arrhythmias are a major problem for health systems in the developed world due to their high incidence and prevalence as the population ages. Atrial fibrillation (AF) and ventricular fibrillation (VF), are amongst the most complex arrhythmias seen in the clinical practice. Clinical consequences of such arrhythmic disturbances include developing complex cardio-embolic events in AF, and dramatic repercussions due to sustained life-threatening fibrillatory processes with subsequent neurological damage under VF, leading to cardiac arrest and sudden cardiac death (SCD). However, despite the technological advances in the last decades, their intrinsic mechanisms are incompletely understood, and, to date, therapeutic strategies lack of sufficient mechanistic basis and have low success rates.
Most of the progress for developing optimal biomarkers and novel therapeutic strategies in this field has come from valuable techniques in the research of arrhythmia mechanisms. Amongst the mechanisms involved in the induction and perpetuation of cardiac arrhythmias such AF, dynamic high-frequency re-entrant and focal sources, in its different modalities, are thought to be the primary sources underlying the arrhythmia. However, little is known about the attractors and spatiotemporal dynamics of such fibrillatory primary sources, specifically dominant rotational or focal sources maintaining the arrhythmia. Therefore, a computational platform for understanding active, passive and structural determinants, and modulators of such dynamics was developed. This allowed stablishing a framework for understanding the complex multidomain dynamics of rotors with enphasis in their deterministic properties to develop mechanistic approaches for diagnostic aid and therapy.
Understanding fibrillatory processes is key to develop physiologically and clinically relevant scores and tools for early diagnostic aid. Specifically, spectral and time-frequency properties of fibrillatory processes have shown to highlight major deterministic behaviour of intrinsic mechanisms underlying the arrhythmias and the impact of such arrhythmic events. Using prior knowledge, signal processing, machine learning techniques and data analytics, we aimed at developing a reliable mechanistic risk-score for comatose survivors of cardiac arrest due to VF.
Cardiac optical mapping and electrophysiological mapping techniques have shown to be unvaluable resources to shape new hypotheses and develop novel mechanistic approaches and therapeutic strategies. This technology has allowed for many years testing new pharmacological or ablative therapeutic strategies, and developing multidomain methods to accurately track arrhymia dynamics identigying dominant sources and attractors. Even though, panoramic mapping is the primary method for simultaneously tracking electrophysiological parameters, its adoption by the multidisciplinary cardiovascular research community is limited mainly due to the cost of the technology. Taking advantage of recent technological advances, we focus on developing and validating low-cost optical mapping systems for panoramic imaging using clinically relevant models for basic research and bioengineering. / Calvo Saiz, CJ. (2022). Novel Cardiac Mapping Approaches and Multimodal Techniques to Unravel Multidomain Dynamics of Complex Arrhythmias Towards a Framework for Translational Mechanistic-Based Therapeutic Strategies [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/182329
|
163 |
Development of a novel high resolution and high throughput biosensing technology based on a Monolithic High Fundamental Frequency Quartz Crystal Microbalance (MHFF-QCM). Validation in food controlCalero Alcarria, María del Señor 02 May 2022 (has links)
Tesis por compendio / [ES] La sociedad actual demanda un mayor control en la seguridad y calidad de los alimentos que se consumen. Esta preocupación se ve reflejada en los diferentes planes estatales y europeos de investigación científica, los cuales, plantean la necesidad de innovar y desarrollar nuevas técnicas analíticas que cubran los requerimientos actuales. En el presente documento se aborda el problema de la presencia de residuos químicos en la miel. El origen de los mismos se debe, fundamentalmente, a los tramientos veterinarios con los que se tratan enfermedades y parásitos en las abejas, y a los tratamientos agrícolas con los que las abejas se ponen en contacto cuando recolectan el néctar en cultivos próximos a las colmenas. La Agencia Europea de Seguridad Alimentaria (EFSA) confirma esta realidad al notificar numerosas alertas sanitarias en la miel.
En los últimos años, los métodos de análisis basados en inmunosensores piezoeléctricos se han posicionado como la base de una técnica de cribado muy prometedora, la cual puede ser empleada como técnica complementaria a las clásicas de cromatografía, gracias a su sencillez, rapidez y bajo coste. La tecnología de resonadores High-Fundamental Frequency Quartz Crystal Microbalance with Dissipation (HFF-QCMD) combina la detección directa en tiempo real, alta sensibilidad y selectividad con un fácil manejo y coste reducido en comparación con otras técnicas. Además, está tecnología permite aumentar el rendimiento del análisis mediante el diseño de arrays de resonadores en un mismo sustrato (Monolithic HFF-QCMD). En este documento se presenta el diseño de un array de 24 sensores HFF-QCMD, junto con un cartucho de micro-fluídica que traza diversos microcanales sobre los diferentes elementos sensores, a los que hace llegar la muestra de miel diluida a analizar. El cartucho actúa también como interfaz para realizar la conexión entre el array de resonadores y el instrumento de caracterización de los mismos. Para obtener el máximo partido del array diseñado, se desarrolla un método de medida robusto y fiable que permite elevar la tasa de adquisición de datos para facilitar la toma de registros eléctricos de un elevado número de resonadores de forma simultánea, e incluso en varios armónicos del modo fundamental de resonancia. La gran sensibilidad de la tecnología HFF-QCMD a los eventos bioquímicos a caracterizar se extiende también a otro tipo eventos externos, como son los cambios de temperatura o presión, lo que es necesario minimizar con el fin de reducir el impacto que estas perturbaciones no deseadas provocan en la estabilidad y fiabilidad de la medida. Con este fin, se desarrolla un algoritmo de procesado de señal basado en la Discrete Transform Wavelet (DTW). Finalmente, todos los desarrollos tecnológicos realizados se validan mediante la implementación de un inmunoensayo para la detección simultánea, en muestras de mieles reales, de residuos químicos de naturaleza química muy diferente, a saber, el fungicida tiabendazol y el antibiótico sulfatiazol. / [CA] La societat actual demanda un major control en la seguretat i qualitat dels aliments que es consumeixen. Aquesta preocupació es veu reflectida en els diferents plans estatals i europeus d'investigació científica, els quals, plantegen la necessitat d'innovar i desenvolupar noves tècniques analítiques que cobrisquen els requeriments actuals. En el present document s'aborda el problema de la presència de residus químics en la mel. L'origen dels mateixos es deu, fonamentalment, als tractaments veterinaris amb els quals es tracten malalties i paràsits en les abelles, i als tractaments agrícoles amb els quals les abelles es posen en contacte quan recol·lecten el nèctar en cultius pròxims als ruscos. L'Agència Europea de Seguretat Alimentària (EFSA) confirma aquesta realitat notificant nombroses alertes sanitàries en la mel.
En els últims anys, els mètodes d'anàlisis basades en immunosensors piezoelèctrics s'han posicionat com la base d'una tècnica de garbellat molt prometedora, la qual pot ser emprada com a tècnica complementària a les clàssiques de cromatografia, gràcies a la seua senzillesa, rapidesa i baix cost. La tecnologia de ressonadors High-Fundamental Frequency Quartz Crystal Microbalance with Dissipation (HFF-QCMD) combina la detecció directa en temps real, alta sensibilitat i selectivitat amb un fàcil maneig i cost reduït en comparació amb altres tècniques. A més, està tecnologia permet augmentar el rendiment del anàlisi mitjançant el disseny d'arrays de ressonadors en un mateix substrat (Monolithic HFF-QCMD). En aquest document es presenta el disseny d'un array de 24 sensors HFF-QCMD, juntament amb un cartutx de microfluídica que estableix diversos microcanals sobre els diferents elements sensors, als quals fa arribar la mostra de mel diluïda a analitzar. El cartutx actua també com a interfície per a realitzar la connexió entre l'array de ressonadors i l'instrument de caracterització d'aquests. Per a traure el màxim partit a l'array dissenyat, es desenvolupa un mètode de mesura robust i fiable que permet elevar la taxa d'adquisició de dades per a facilitar la presa de registres elèctrics d'un elevat nombre de ressonadors de manera simultània, i fins i tot en diversos harmònics del mode fonamental de ressonància. La gran sensibilitat de la tecnologia HFF-QCMD als esdeveniments bioquímics a caracteritzar s'estén també a un altre tipus esdeveniments externs, com són els canvis de temperatura o pressió, la qual cosa és necessari minimitzar amb la finalitat de reduir l'impacte que aquestes pertorbacions no desitjades provoquen en l'estabilitat i fiabilitat de la mesura. A aquest efecte, es desenvolupa un algorisme de processament de senyal basat en la Discrete Transform Wavelet (DTW). Finalment, tots els desenvolupaments tecnològics realitzats es validen mitjançant la implementació d'un immunoassaig per a la detecció simultània, en mostres de mel reals, de residus químics de naturalesa química molt diferent, a saber, el fungicida tiabendazol i l'antibiòtic sulfatiazol. / [EN] Currently, society demands greater control over the safety and quality of the food consumed. This concern is reflected in the different states and European plans for scientific research, which establish the necessity to innovate and develop new analytical techniques that meet current requirements. This document addresses the problem of the presence of chemical residues in honey. Its origin is fundamentally due to the veterinary treatments against diseases and parasites in bees, and also to the agricultural treatments with which the bees come into contact when they collect the nectar in crops close to the hives. The European Food Safety Agency (EFSA) confirms this reality by notifying numerous health alerts in honey.
In recent years, analysis methods based on piezoelectric immunosensors have been positioned as the basis of a very promising screening technique, which can be used as a complementary technique to the classic chromatography, thanks to its simplicity, speed and low cost. High-Fundamental Frequency Quartz Crystal Microbalance with Dissipation (HFF-QCMD) resonator technology combines direct real-time detection, high sensitivity and selectivity with easy handling and low cost compared to other techniques. In addition, this technology allows increasing the performance of the analysis through the design of resonator arrays on the same substrate (Monolithic HFF-QCMD). This document presents the design of an array of 24 HFF-QCMD sensors, together with a microfluidic cartridge that establish various microchannels on the different sensor elements, to provide them the diluted honey sample to be analyzed. The cartridge also acts as an interface to make the connection between the array of resonators and the characterization instrument. To get the most out of the designed array, a robust and reliable measurement method has been developed that allows increasing the data acquisition rate to facilitate electrical parameters readout from a high number of resonators simultaneously, and even in several harmonics of the fundamental resonance mode. The great sensitivity of the HFF-QCMD technology to the biochemical events to be characterized also is extended to other types of external events, such as changes in temperature or pressure, which must be minimized in order to reduce the impact that these unwanted disturbances cause in the stability and reliability of the measurement. To this end, a signal processing algorithm based on the Discrete Transform Wavelet (DTW) is developed. Finally, all the technological developments carried out are validated through the implementation of an immunoassay for the simultaneous detection, in real honey samples, of chemical residues of very different chemical nature, namely, the fungicide thiabendazole and the antibiotic sulfathiazole. / The authors would also like to thank Jorge Martínez from the Laboratory of High Frequency Circuits (LCAF) of the Universitat Politècnica de València (UPV) for assistance with profilometry, and Manuel Planes, José Luis Moya, Mercedes Tabernero, Alicia Nuez and Joaquin Fayos from the Electron Microscopy Services of the UPV for helping with the AFM, and SEM measurements. M.Calero is the recipient of the doctoral fellowship BES-2017-080246 from the Spanish Ministry of Economy, Industry and Competitiveness (Madrid, Spain). This research was funded by Spanish Ministry of Economy and Competitiveness with FEDER funds (AGL 2016-77702-R) and European Commission Horizon 2020 Programme (Grant Agreement number H2020-FETOPEN-2016-2017/737212-CATCH-U-DNA - Capturing non-Amplified Tumor Circulating DNA with Ultrasound Hydrodynamics) for which the authors are grateful. Román Fernández is with the Center for Research and Innovation in Bioengineering (Ci2B), Universitat Politècnica de València, València, Spain and with Advanced Wave Sensors S.L., Paterna, València, Spain. (e-mail: rfernandez@awsensors.com); Yolanda Jiménez, Antonio Arnau and María Calero are with the Center for Research and Innovation in Bioengineering (Ci2B), Universitat Politècnica de València, València, Spain; Ilya Reiviakine is with Advanced Wave Sensors S.L., Paterna, Valencia, Spain and with the Department of Bioengineering, University of Washington, Seattle, WA, 98150 USA; María Isabel Rocha-Gaso and José Vicente García are with Advanced Wave Sensors S.L., Paterna, València, Spain. / Calero Alcarria, MDS. (2022). Development of a novel high resolution and high throughput biosensing technology based on a Monolithic High Fundamental Frequency Quartz Crystal Microbalance (MHFF-QCM). Validation in food control [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/182652 / Compendio
|
164 |
Educación en información comunicación: análisis y propuesta para capacitar el consumo responsable de la informaciónCliment Ferrer, Juan José 06 September 2022 (has links)
[ES] En el momento en que decidí dedicarme académicamente al mundo de la comunicación empecé a ser consciente del poder que el ámbito de la información y la comunicación poseen a diferentes niveles. En aquel momento las tecnologías empezaban a despuntar en su gran evolución y revolución que vivimos a día de hoy, pero todavía no éramos conscientes, al menos del todo, de los resultados que pueden provocar determinadas informaciones poco rigurosas, más todavía, debido a su gran difusión y elevadas posibilidades de transmisión a gran velocidad a día de hoy.
Dentro de esta tesis se analiza la evolución y revolución que las tecnologías digitales de la información y la comunicación han aportado al ámbito de los medios y como han logrado cambiar de paradigma. Se analiza como la ciudadanía cambia su rol de ser un agente pasivo que recibe informaciones a ser activo y con responsabilidades al poder ser también creador y transmisor de informaciones.
Se realiza un análisis de las técnicas y estrategias que utilizan los profesionales de los medios de comunicación en el tratamiento de los hechos y datos para poder transformarlos en informaciones y como muchas veces este tratamiento se utiliza con intereses ocultos para favorecer objetivos políticos, económicos o bien de opinión social.
Se concluye en esta tesis con una propuesta de currículum docente para poder llevar a cabo una educación en información y comunicación que nos ayude a facilitar el aprendizaje hacia una futura ciudadanía para que posea un pensamiento crítico ante cualquier tipo de información que reciba desde cualquier tipo de medio de comunicación y transmisión de la información. / [CA] En el moment en què vaig decidir dedicar-me acadèmicament al món de la comunicació vaig començar a ser conscient del poder que l'àmbit de la informació i la comunicació posseeixen a diferents nivells. En aquell moment les tecnologies començaven a despuntar en la seva gran evolució i revolució que vivim avui dia, però encara no érem conscients, almenys del tot, dels resultats que poden provocar determinades informacions poc rigoroses, més encara, a causa de la seva gran difusió i elevades possibilitats de transmissió a gran velocitat avui dia.
Dins d'aquesta tesi s'analitza l'evolució i revolució que les noves tecnologies de la informació i la comunicació han aportat a l'àmbit dels mitjans i com han aconseguit canviar de paradigma. S'analitza com la ciutadania canvia el seu rol de ser un agent passiu que rep informacions a ser actiu i amb responsabilitats en poder ser també creador i transmissor d'informacions.
Es realitza una anàlisi de les tècniques i estratègies que utilitzen els professionals dels mitjans de comunicació en el tractament dels fets i dades per a poder transformar-los en informacions i com moltes vegades aquest tractament s'utilitza amb interessos ocults per a afavorir objectius polítics, econòmics o bé d'opinió social.
Aquesta tesi conclou amb una proposta de currículum docent per a poder dur a terme una educació en informació i comunicació que ens ajudi a facilitar l'aprenentatge cap a una futura ciutadania perquè posseeixi un pensament crític davant qualsevol mena d'informació que rebi des de qualsevol mena de mitjà de comunicació i transmissió de la informació. / [EN] When I decided to dedicate myself academically to the world of communication, I began to be aware of the power that the field of information and communication has at different levels. At that time, technologies were still to emerge in their great evolution and revolution that we are living today, but we were not yet aware, at least not fully, of the results certain less rigorous information can cause, even more so, due to its wide dissemination and high possibilities of transmission at high speed today.
This thesis analyzes the evolution and revolution that the new information and communication technologies have brought to the media and how they have changed the paradigm. It analyzes how citizens change their role from being passive agents who receive information to being active and with responsibilities as they can also be creators and transmitters of information.
An analysis is made of the techniques and strategies used by media professionals in the treatment of facts and data in order to transform them into information and how this treatment is often used with hidden interests to favor political, economic or social opinion objectives.
This thesis concludes with a proposal for a teaching curriculum in order to carry out an education in information and communication that helps us to facilitate learning towards a future citizenry that possesses critical thinking in the face of any type of information received from any type of media and information transmission. / Climent Ferrer, JJ. (2022). Educación en información comunicación: análisis y propuesta para capacitar el consumo responsable de la información [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/185505
|
165 |
Microwave Filters in Planar and Hybrid Technologies with Advanced ResponsesMarín Martínez, Sandra 31 October 2022 (has links)
[ES] La presente tesis doctoral tiene como principal objetivo el estudio, diseño, desarrollo y fabricación de nuevos dispositivos pasivos de microondas, tales como filtros y multiplexores con respuestas avanzadas para aplicaciones de alto valor añadido (i.e. comerciales, militares, espacio); orientados a distintos servicios, actuales y futuros, en sistemas inalámbricos de comunicación.
Además, esta investigación se centrará en el desarrollo de filtros encapsulados de montaje superficial y con un elevado grado de miniaturización. Para ello, se propone investigar distintas técnicas que consigan respuestas muy selectivas o con unas características exigentes en rechazo (mediante la flexible introducción de ceros de transmisión), así como una excelente planaridad en banda (aplicando técnicas tales como la mejora del Q o el diseño de filtros con pérdidas, lossy filters), obteniendo de este modo respuestas mejoradas, con respecto a soluciones conocidas, en los componentes de microondas desarrollados.
De forma general, la metodología seguida se iniciará con una búsqueda y conocimiento del estado del arte sobre cada uno de los temas que se acometerán en esta tesis. Tras ello, se establecerá un procedimiento de síntesis que permitirá acometer de forma teórica los objetivos y especificaciones a conseguir en cada caso. Con ello, se establecerán las bases para iniciar el proceso de diseño, incluyendo co-simulación circuital/electromagnética y optimización que permitirán, en última instancia, implementar la solución planteada en cada caso de aplicación concreto.
Finalmente, la demostración y validez de todas las investigaciones realizadas se llevará a cabo mediante la fabricación y caracterización experimental de distintos prototipos. / [CA] La present tesi doctoral té com a principal objectiu l'estudi, disseny, desenvolupament I fabricació de nous dispositius passius de microones, com ara filtres i multiplexors amb respostes avançades per a aplicacions d'alt valor afegit, (comercials, militars, espai); orientats a oferir diferents serveis, actuals i futurs, en els diferents sistemes sense fils de comunicació.
A més, aquesta investigació es centrarà en el desenvolupament de filtres encapsulats de muntatge superficial i amb un elevat grau de miniaturització. Per a això, es proposa investigar diferents tècniques que aconsegueixin respostes molt selectives o amb unes característiques exigents en rebuig (mitjançant la flexible introducció de zeros de transmissió), així com una excel·lent planaritat en banda (aplicant tècniques com ara la
millora de l'Q o el disseny de filtres amb perdues, lossy filters), obtenint d'aquesta manera respostes millorades, respecte solucions conegudes, en els components de micrones desenvolupats.
De forma general, la metodologia seguida s'iniciarà amb una recerca i coneixement de l'estat de l'art sobre cadascun dels temes que s'escometran en aquesta tesi. Després d'això, s'establirà un procediment de síntesi que permetrà escometre de forma teòrica els objectiusi especificacions a aconseguir en cada cas. Amb això, s'establiran les bases per iniciar el procés de disseny, amb co-simulació circuital / electromagnètica i optimització que permetran, en última instància, implementar la solució plantejada en cada cas d'aplicació concret.
Finalment, la demostració i validesa de totes les investigacions realitzades es durà a terme mitjançant la fabricació i caracterització experimental de diferents prototips. / [EN] The main objective of this doctoral thesis is the study, design, development and manufacture of new passive microwave components, such as filters and multiplexers with advanced responses for commercials, military and space applications; oriented to other different services, in current and future wireless communication systems.
In addition, this research will focus on the development of surface-mounted encapsulated filters with a high degree of miniaturization. With this purpose, it is proposed to investigate different techniques that achieve highly selective responses or with demanding characteristics in rejection (through the flexible introduction of transmission zeros), as well as an excellent in-band planarity (applying techniques such as the Q enhancement or lossy filters), thus obtaining improved responses, with respect to known solutions, in the developed microwave components.
In general, the followed methodology will begin with a search and knowledge of the state of the art on each of the topics addressed in this thesis. After that, a synthesis procedure will be established, which will allow the achievement of the objectives and specifications in a theoretical way, for each case. With this, the bases will be established to start the design process, with circuital and electromagnetic co-simulations and optimizations that will allow, ultimately, to implement the proposed solution, in every application case, specifically.
Finally, the demonstration and validity of all the investigations will be carried out through the manufacture and experimental characterization of different prototypes. / Marín Martínez, S. (2022). Microwave Filters in Planar and Hybrid Technologies with Advanced Responses [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/188943
|
166 |
Characterization of the Substrate Modification in Patients Undergoing Catheter Ablation of Atrial FibrillationVraka, Aikaterini 20 January 2023 (has links)
Tesis por compendio / [ES] La fibrilación auricular (FA) es la arritmia cardíaca más común. A pesar de la gran popularidad de la ablación con catéter (AC) como tratamiento principal, todavía hay margen de mejora. Aunque las venas pulmonares (VPs) son los principales focos de FA, muchos sitios pueden contribuir a su propagación, formando el sustrato de la FA (SFA). El mapeo preciso del SFA y el registro de la modificación del SFA, como marcador positivo después de AC, son fundamentales. Los electrocardiogramas (ECG) y los electrogramas (EGM) se reclutan para este propósito.
Los EGM se utilizan para detectar candidatos de AC como áreas que provocan o perpetúan la FA. Por lo tanto, el análisis de EGM es una parte indispensable de AC. Con la capacidad de observar las aurículas globalmente, la principal aplicación de los ECG es evaluar la modificación del SFA analizando las ondas f o P. A pesar del extenso análisis de cualquiera de los tipos de registro, existen algunas brechas. La AC no-VP aumenta el tiempo en quirófano, provocando mayores riesgos y costos. En cuanto al análisis de la modificación del SFA, se utilizan varios umbrales para definir una onda P prolongada. El principal objetivo de la presente Tesis es contribuir al esfuerzo de análisis de SFA y de modificación de SFA. Para ello, la presente Tesis se desarrolló bajo dos hipótesis principales. Que la calidad de la información extraída durante el SFA y el análisis de modificación del SFA se puede mejorar mediante la introducción de pasos innovadores. Además, la combinación de análisis de ECG y EGM puede aumentar la resolución del mapeo y revelar nueva información sobre los mecanismos de FA.
Para cumplir con el objetivo principal, el análisis se divide en 4 partes, conformando los 4 capítulos del Compendio de articulos. En primer lugar, se reclutó la dimensión de correlación de grano grueso (DCGG). DCGG localizó de manera confiable EGM complejos y la clasificación por tipos de FA arrojó una precisión del 84 %. Luego, se adoptó un análisis alternativo de la onda P, estudiando por separado su primera y su segunda parte, correspondientes a la aurícula derecha (AD) e izquierda (AI). Los resultados indicaron LA como la principal fuente de modificación del SFA y subrayaron la importancia de estudiar partes integrales de ECG. Los hallazgos de este estudio también sugieren la implementación de partes integrales de ondas P como un posible alivio de las discrepancias en los umbrales de ondas P para definir el tejido fibrótico.
Posteriormente, se estudió el efecto diferente del aislamiento de la VP izquierda (AVPI) y derecha (AVPD) sobre la modificación del SFA. AVPI fue la parte crítica, siendo la fuente exclusiva de acortamiento de onda P. El análisis de los registros durante la AC también permitió una observación más cercana de las fluctuaciones de la variabilidad de la frecuencia cardíaca (VFC) a lo largo del procedimiento de CA, lo que reveló información sobre el efecto de la energía de radiofrecuencia (RF) en el tejido auricular. La última parte se centró en el seno coronario (SC), una estructura fundamental en el mapeo de FA para aumentar la resolución de la información. Se definieron los canales más y menos robustos durante el ritmo sinusal (RS) y se investigó la utilidad de SC en la evaluación de la modificación del SFA. Aunque CS no proporcionó una imagen global de la alteración del SFA, pudo registrar con mayor sensibilidad las fluctuaciones en la respuesta auricular durante la AC. Los hallazgos presentados en esta Tesis Doctoral ofrecen una perspectiva alternativa sobre la modificación del SFA y contribuyen al esfuerzo general sobre el mapeo de FA y la evaluación del sustrato posterior a la CAAC, abriendo futuras líneas de investigación hacia una resolución más alta y un mapeo más eficiente de los mecanismos desencadenantes de la FA. / [CA] La fibril·lació auricular (FA) és l'arítmia cardíaca més comú. Tot i la gran popularitat de l'ablació amb catèter (AC) com a tractament principal, encara hi ha marge de millora. Tot i que les venes pulmonars (VPs) són els principals focus de FA, molts llocs poden contribuir a la seva propagació, formant el substrat de la FA (SFA). El mapatge precís de l'SFA i el registre de la modificació de l'SFA, com a marcador positiu després d'AC, són fonamentals. Els electrocardiogrames (ECG) i els electrogrames (EGM) es recluten per a aquest propòsit.
Els EGM es fan servir per detectar candidats d'AC com a àrees que provoquen o perpetuen la FA. Per tant, lanàlisi dEGM és una part indispensable dAC. Amb la capacitat d'observar les aurícules globalment, la principal aplicació dels ECG és avaluar la modificació de l'SFA analitzant les ones f o P. Tot i l'extensa anàlisi de qualsevol dels tipus de registre, hi ha algunes bretxes. L'AC no-VP augmenta el temps a quiròfan, provocant majors riscos i costos. Pel que fa a l'anàlisi de la modificació de l'SFA, s'utilitzen diversos llindars per definir una ona P perllongada. L'objectiu principal d'aquesta Tesi és contribuir a l'esforç d'anàlisi de SFA i de modificació de SFA. Per això, aquesta Tesi es va desenvolupar sota dues hipòtesis principals. Que la qualitat de la informació extreta durant el SFA i lanàlisi de modificació de lSFA es pot millorar mitjançant la introducció de passos innovadors. A més, la combinació d'anàlisi d'ECG i EGM pot augmentar la resolució del mapatge i revelar informació nova sobre els mecanismes de FA.
Per complir amb l'objectiu principal, l'anàlisi es divideix en 4 parts i es conforma els 4 capítols del Compendi d'articles. En primer lloc, es va reclutar la dimensió de correlació de gra gruixut (DCGG). DCGG va localitzar de manera fiable EGM complexos i la classificació per tipus de FA va donar una precisió del 84%. Després, es va adoptar una anàlisi alternativa de l'ona P, estudiant per separat la primera i la segona part corresponents a l'aurícula dreta (AD) i esquerra (AI). Els resultats van indicar LA com la font principal de modificació de l'SFA i van subratllar la importància d'estudiar parts integrals d'ECG. Les troballes d'aquest estudi també suggereixen la implementació de parts integrals d'ones P com a possible alleugeriment de les discrepàncies als llindars d'ones P per definir el teixit fibròtic.
Posteriorment, es va estudiar l'efecte diferent de l'aïllament de la VP esquerra (AVPI) i la dreta (AVPD) sobre la modificació de l'SFA. AVPI va ser la part crítica, sent la font exclusiva d'escurçament d'ona P. L'anàlisi dels registres durant l'AC també va permetre una observació més propera de les fluctuacions de la variabilitat de la freqüència cardíaca (VFC) al llarg del procediment de CA , cosa que va revelar informació sobre l'efecte de l'energia de radiofreqüència (RF) en el teixit auricular. L'última part es va centrar al si coronari (SC), una estructura fonamental al mapeig de FA per augmentar la resolució de la informació. Es van definir els canals més i menys robustos durant el ritme sinusal (RS) i es va investigar la utilitat de SC a l'avaluació de la modificació de l'SFA. Tot i que CS no va proporcionar una imatge global de l'alteració de l'SFA, va poder registrar amb més sensibilitat les fluctuacions a la resposta auricular durant l'AC. Les troballes presentades en aquesta Tesi Doctoral ofereixen una perspectiva alternativa sobre la modificació de l'SFA i contribueixen a l'esforç general sobre el mapeig de FA i l'avaluació del substrat posterior a la CAAC, obrint futures línies de recerca cap a una resolució més alta i un mapeig més eficient dels mecanismes desencadenants de la FA. / [EN] Atrial fibrillation (AF) is the commonest cardiac arrhythmia. Despite the high popularity of catheter ablation (CA) as the main treatment, there is still room for improvement. Time spent in AF affects the AF confrontation and evolution, with 1,15% of paroxysmal AF patients progressing to persistent annually. Therefore, from diagnosis to follow-up, every aspect that contributes to the AF confrontation is of utmost importance. Although pulmonary veins (PVs) are the main AF foci, many sites may contribute to the AF propagation, by triggering or sustaining the AF, forming the AF substrate. Precise AF substrate mapping and recording of the AF substrate modification, as a positive marker after CA sessions, are critical. Electrocardiograms (ECGs) and electrograms (EGMs) are vastly recruited for this purpose.
EGMs are used to detect candidate CA targets as areas that provoke or perpetuate AF. Hence, EGMs analysis is an indispensable part of the CA procedure. With the ability to observe the atria globally, ECGs' main application is to assess the AF substrate modification by analyzing f- or P-waves from recordings before and after CA. Despite the extensive analysis on either recording types, some gaps exist. Non-PV CA increases the time in operation room, provoking higher risks and costs. Furthermore, whether non-PV CA is beneficial is under dispute. As for the AF substrate modification analysis, various thresholds are used to define a prolonged P-wave, related with poor CA prognostics. The main objective of the present Thesis is to contribute to the effort of AF substrate and AF substrate modification analysis. For this purpose, the present Thesis was developed under two main hypotheses. That the information quality extracted during AF substrate and AF substrate modification analysis can be improved by introducing innovative steps. Also, that combining ECG and EGM analysis can augment the mapping resolution and reveal new information regarding AF mechanisms.
To accomplish the main objective, the analysis is split in 4 parts, forming the 4 chapters of the Compendium of publications. Firstly, coarse-grained correlation dimension (CGCD) was recruited. CGCD reliably localized highly complex EGMs and classification by AF types yielded 84% accuracy. Then, an alternative P-wave analysis was suggested, studying separately the first and second P-wave parts, corresponding to the right (RA) and left (LA) atrium. The findings indicated LA as the main AF substrate modification source and underlined the importance of studying integral ECG parts. The findings of this study additionally suggest the implementation of integral P-wave parts as a possible alleviation for the discrepancies in P-wave thresholds to define fibrotic tissue.
Afterwards, the different effect of left (LPVI) and right pulmonary vein isolation (RPVI) on the AF substrate modification was studied. LPVI was the critical part, being the exclusive source of P-wave shortening. Analysis of recordings during CA also allowed a closer observation of the heart rate variability (HRV) fluctuations throughout the CA procedure, revealing information on the effect of radiofrequency (RF) energy on the atrial tissue. The last part was focused on coronary sinus (CS), a fundamental structure in AF mapping to increase the information resolution. The most and least robust channels during sinus rhythm (SR) were defined and the utility of CS in AF substrate modification evaluation was investigated. Although CS did not provide a global picture of the AF substrate alteration, it was able to record with higher sensitivity the fluctuations in the atrial response during the application of RF energy. The findings presented in this Doctoral Thesis offer an alternative perspective on the AF substrate modification and contribute to the overall effort on AF mapping and post-CA substrate evaluation, opening future lines of research towards a higher resolution and more efficient mapping of the AF drivers. / Vraka, A. (2022). Characterization of the Substrate Modification in Patients Undergoing Catheter Ablation of Atrial Fibrillation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/191410 / Compendio
|
167 |
Development of a data acquisition architecture with distributed synchronization for a Positron Emission Tomography system with integrated front-endAliaga Varea, Ramón José 02 May 2016 (has links)
[EN] Positron Emission Tomography (PET) is a non-invasive nuclear medical imaging modality that makes it possible to observe the distribution of metabolic substances within a patient's body after marking them with radioactive isotopes and arranging an annular scanner around him in order to detect their decays. The main applications of this technique are the detection and tracing of tumors in cancer patients and metabolic studies with small animals.
The Electronic Design for Nuclear Applications (EDNA) research group within the Instituto de Instrumentación para Imagen Molecular (I3M) has been involved in the study of high performance PET systems and maintains a small experimental setup with two detector modules. This thesis is framed within the necessity of developing a new data acquisition system (DAQ) for the aforementioned setup that corrects the drawbacks of the existing one. The main objective is to define a DAQ architecture that is completely scalable, modular, and guarantees the mobility and the possibility of reusing its components, so that it admits any extension of modification of the setup and it is possible to export it directly to the configurations used by other groups or experiments. At the same time, this architecture should be compatible with the best possible resolutions attainable at the present instead of imposing artificial limits on system performance. In particular, the new DAQ system should outperform the previous one.
As a first step, a general study of DAQ arquitectures is carried out in the context of experimental setups for PET and other high energy physics applications. On one hand, the conclusion is reached that the desired specifications require early digitization of detector signals, exclusively digital communication between modules, and the absence of a centralized trigger. On the other hand, the necessity of a very precise distributed synchronization scheme between modules becomes apparent, with errors in the order of 100 ps, and operating directly over the data links. A study of the existing methods reveals their severe limitations in terms of achievable precision. A theoretical analysis of the situation is carried out with the goal of overcoming them, and a new synchronization algorithm is proposed that is able to reach the desired resolution while getting rid of the restrictions on clock alignment that are imposed by virtually all usual schemes. Since the measurement of clock phase difference plays a crucial role in the proposed algorithm, extensions to the existing methods are defined and analyzed that improve them significantly. The proposed scheme for synchronism is validated using commercial evaluation boards.
Taking the proposed synchronization method as a starting point, a DAQ architecture for PET is defined that is composed of two types of module (acquisition and concentration) whose replication makes it possible to arrange a hierarchic system of arbitrary size, and circuit boards are designed and commissioned that implement a realization of the architecture for the particular case of two detectors. This DAQ is finally installed at the experimental setup, where their synchronization properties and resolution as a PET system are characterized and its performance is verified to have improved with respect to the previous system. / [ES] La Tomografía por Emisión de Positrones (PET) es una modalidad de imagen médica nuclear no invasiva que permite observar la distribución de sustancias metabólicas en el interior del cuerpo de un paciente tras marcarlas con isótopos radioactivos y disponer después un escáner anular a su alrededor para detectar su desintegración. Las principales aplicaciones de esta técnica son la detección y seguimiento de tumores en pacientes con cáncer y los estudios metabólicos en animales pequeños.
El grupo de investigación Electronic Design for Nuclear Applications (EDNA) del Instituto de Instrumentación para Imagen Molecular (I3M) ha estado involucrado en el estudio de sistemas PET de alto rendimiento y mantiene un pequeño setup experimental con dos módulos detectores. La presente tesis se enmarca dentro de la necesidad de desarrollar un nuevo sistema de adquisición de datos (DAQ) para dicho setup que corrija los inconvenientes del ya existente. En particular, el objetivo es definir una arquitectura de DAQ que sea totalmente escalable, modular, y que asegure la movilidad y la posibilidad de reutilización de sus componentes, de manera que admita cualquier ampliación o alteración del setup y pueda exportarse directamente a los de otros grupos o experimentos. Al mismo tiempo, se desea que dicha arquitectura no limite artificialmente el rendimiento del sistema sino que sea compatible con las mejores resoluciones disponibles en la actualidad, y en particular que sus prestaciones superen a las del DAQ instalado previamente.
En primer lugar, se lleva a cabo un estudio general de las arquitecturas de DAQ para setups experimentales para PET y otras aplicaciones de física de altas energías. Por un lado, se determina que las características deseadas implican la digitalización temprana de las señales del detector, la comunicación exclusivamente digital entre módulos, y la ausencia de trigger centralizado. Por otro lado, se hace patente la necesidad de un esquema de sincronización distribuida muy preciso entre módulos, con errores del orden de 100 ps, que opere directamente sobre los enlaces de datos. Un estudio de los métodos ya existentes revela sus graves limitaciones a la hora de alcanzar esas precisiones. Con el fin de paliarlos, se lleva a cabo un análisis teórico de la situación y se propone un nuevo algoritmo de sincronización que es capaz de alcanzar la resolución deseada y elimina las restricciones de alineamiento de reloj impuestas por casi todos los esquemas usuales. Dado que la medida de desfase entre relojes juega un papel crucial en el algoritmo propuesto, se definen y analizan extensiones a los métodos ya existentes que suponen una mejora sustancial. El esquema de sincronismo propuesto se valida utilizando placas de evaluación comerciales.
Partiendo del método de sincronismo propuesto, se define una arquitectura de DAQ para PET compuesta de dos tipos de módulos (adquisición y concentración) cuya replicación permite construir un sistema jerárquico de tamaño arbitrario, y se diseñan e implementan placas de circuito basadas en dicha arquitectura para el caso particular de dos detectores. El DAQ así construído se instala finalmente en el setup experimental, donde se caracterizan tanto sus propiedades de sincronización como su resolución como sistema PET y se comprueba que sus prestaciones son superiores a las del sistema previo. / [CA] La Tomografia per Emissió de Positrons (PET) és una modalitat d'imatge mèdica nuclear no invasiva que permet observar la distribució de substàncies metabòliques a l'interior del cos d'un pacient després d'haver-les marcat amb isòtops radioactius disposant un escàner anular al seu voltant per a detectar la seua desintegració. Aquesta tècnica troba les seues principals aplicacions a la detecció i seguiment de tumors a pacients amb càncer i als estudis metabòlics en animals petits.
El grup d'investigació Electronic Design for Nuclear Applications (EDNA) de l'Instituto de Instrumentación para Imagen Molecular (I3M) ha estat involucrat en l'estudi de sistemes PET d'alt rendiment i manté un petit setup experimental amb dos mòduls detectors. Aquesta tesi neix de la necessitat de desenvolupar un nou sistema d'adquisició de dades (DAQ) per al setup esmentat que corregisca els inconvenients de l'anterior. En particular, l'objectiu és definir una arquitectura de DAQ que sigui totalment escalable, modular, i que asseguri la mobilitat i la possibilitat de reutilització dels seus components, de tal manera que admeta qualsevol ampliació o alteració del setup i pugui exportar-se directament a aquells d'altres grups o experiments. Al mateix temps, es desitja que aquesta arquitectura no introduisca límits artificials al rendiment del sistema sinó que sigui compatible amb les millors resolucions disponibles a l'actualitat, i en particular que les seues prestacions siguin superiors a les del DAQ instal.lat amb anterioritat.
En primer lloc, es porta a terme un estudi general de les arquitectures de DAQ per a setups experimentals per a PET i altres aplicacions de física d'altes energies. Per una banda, s'arriba a la conclusió que les característiques desitjades impliquen la digitalització dels senyals del detector el més aviat possible, la comunicació exclusivament digital entre mòduls, i l'absència de trigger centralitzat. D'altra banda, es fa palesa la necessitat d'un mecanisme de sincronització distribuïda molt precís entre mòduls, amb errors de l'ordre de 100 ps, que treballi directament sobre els enllaços de dades. Un estudi dels mètodes ja existents revela les seues greus limitacions a l'hora d'assolir aquest nivell de precisió. Amb l'objectiu de pal.liar-les, es duu a terme una anàlisi teòrica de la situació i es proposa un nou algoritme de sincronització que és capaç d'obtindre la resolució desitjada i es desfà de les restriccions d'alineament de rellotges imposades per gairebé tots els esquemes usuals. Atès que la mesura del desfasament entre rellotges juga un paper cabdal a l'algoritme proposat, es defineixen i analitzen extensions als mètodes ja existents que suposen una millora substancial. L'esquema de sincronisme proposat es valida mitjançant plaques d'avaluació comercials.
Prenent el mètode proposat com a punt de partida, es defineix una arquitectura de DAQ per a PET composta de dos tipus de mòduls (d'adquisició i de concentració) tals que la replicació d'aquests elements permet construir un sistema jeràrquic de mida arbitrària, i es dissenyen i implementen plaques de circuit basades en aquesta arquitectura per al cas particular de dos detectors. L'electrònica desenvolupada s'instal.la finalment al setup experimental, on es caracteritzen tant les seues propietats de sincronització com la seua resolució com a sistema PET i es comprova que les seues prestacions són superiors a les del sistema previ. / Aliaga Varea, RJ. (2016). Development of a data acquisition architecture with distributed synchronization for a Positron Emission Tomography system with integrated front-end [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63271 / Premios Extraordinarios de tesis doctorales
|
168 |
Sistemas optoelectrónicos para terapias fototérmicas dirigidas al cáncer de piel y optogenética en la regeneración de tejido nerviosoTerrés Haro, José Manuel 23 January 2024 (has links)
[ES] Esta tesis doctoral se enfoca en la creación y validación de sistemas optoelectrónicos para aplicaciones biomédicas, en concreto para la terapia fototérmica contra el cáncer de piel y la optogenética para la regeneración de tejido nervioso. En su transcurso, se ha desarrollado un conjunto de herramientas y dispositivos que abarcan desde la experimentación sobre cultivos celulares hasta modelos computacionales que simulan el tratamiento.
Para la terapia fototérmica, se ha diseñado y construido un equipo de experimentación in vitro validado sobre cultivos celulares. Este dispositivo, equipado con funcionalidades para controlar la potencia del láser, gestionar los tiempos de irradiación, realizar un posicionamiento automático de varias muestras bajo el haz, y monitorizar la evolución de la temperatura, se presenta como una herramienta altamente beneficiosa para la investigación en esta área.
Después, se exploró la simulación mediante el Método de Elementos Finitos para analizar el comportamiento de las nanopartículas y sus suspensiones en agua, arrojando luz sobre sus potenciales aplicaciones en terapias fototérmicas y campos relacionados.
Gracias al aprendizaje obtenido en los primeros pasos de este estudio, se logró el desarrollo de dos nuevos equipos que habilitan la realización de experimentos in vivo. Además, se ha implementado un modelo computacional diseñado para investigar el impacto de la terapia fototérmica en tejido biológico.
Por último, se desarrolló un dispositivo optoelectrónico de reducidas dimensiones y alta potencia para la estimulación optogenética de neuronas modificadas genéticamente, con el objetivo de observar el transitorio de la estimulación y así entender en mayor medida las posibilidades que ofrece la optogenética en el campo de la regeneración de tejidos. / [CA] Aquesta tesi doctoral es centra en la creació i validació de sistemes optoelectrònics per a aplicacions biomèdiques, específicament per a la teràpia fototèrmica contra el càncer de pell i l'optogenètica per a la regeneració del teixit nerviós. Durant el seu desenvolupament, s'han dut a terme un conjunt d'eines i dispositius, des de l'experimentació en cultius cel·lulars fins a models computacionals que simulen el tractament.
Per a la teràpia fototèrmica, s'ha dissenyat i construït un dispositiu de experimentació in vitro validat en cultius cel·lulars. Aquest dispositiu, equipat amb funcionalitats per controlar la potència del làser, gestionar els temps d'irradiació, realitzar un posicionament automàtic de diverses mostres sota el feix i monitoritzar l'evolució de la temperatura, es presenta com una eina altament beneficiosa per a la recerca en aquest àmbit.
A continuació, s'ha explorat la simulació mitjançant el Mètode d'Elements Finits per analitzar el comportament de les nanopartícules i les seves suspensions en aigua, aportant llum a les seves possibles aplicacions en teràpies fototèrmiques i camps relacionats.
Gràcies al coneixement adquirit en les primeres etapes d'aquest estudi, s'ha aconseguit el desenvolupament de dos nous dispositius que possibiliten realitzar experiments in vivo. A més, s'ha implementat un model computacional dissenyat per investigar l'impacte de la teràpia fototèrmica en teixit biològic.
Finalment, s'ha desenvolupat un dispositiu optoelectrònic de reduïdes dimensions i alta potència per a l'estimulació optogenètica de neurones modificades genèticament, amb l'objectiu d'observar la estimulació transitoria i comprendre millor les possibilitats que ofereix l'optogenètica en el camp de la regeneració de teixits. / [EN] This doctoral thesis focuses on the creation and validation of optoelectronic systems for biomedical applications, specifically for photothermal therapy against skin cancer and optogenetics for nerve tissue regeneration. During its course, a set of tools and devices has been developed, ranging from experimentation on cell cultures to computational models simulating the treatment.
For photothermal therapy, an in vitro device has been designed and constructed for experimentation in cell cultures. This device, equipped with functionalities to control laser power, manage irradiation times, perform automatic positioning of multiple samples under the beam, and monitor temperature evolution, emerges as a highly beneficial tool for research in this area.
Next, simulation using the Finite Element Method was explored to analyze the behavior of nanoparticles and their suspensions in water, shedding light on their potential applications in photothermal therapies and related fields.
Thanks to the knowledge gained in the early stages of this study, the development of two new devices enabling in vivo experiments was achieved. Furthermore, a computational model designed to investigate the impact of photothermal therapy on biological tissue has been implemented.
Finally, a compact, high-power optoelectronic device was developed for the optogenetic stimulation of genetically modified neurons, with the aim of observing the stimulation transient and gaining a better understanding of the possibilities that optogenetics offers in the field of tissue regeneration. / El material y las instalaciones utilizados en el desarrollo de este trabajo fueron financiados por las ayudas PID2021-126304OB-C44 y PID2021-124359OB-I00 de MCIN/AEI/10.13039/5011000110-33, el programa H2020 FetOpen con el proyecto número 964562, la ayuda de la Conselleria de Educación, Investigación, Cultura y Deporte de la Generalitat Valenciana CIPROM/2021/007 y el proyecto PROMETEO 2018/024, la Fundación Social Europea ACIF/2019/120, y el Ministerio de Ciencia, Innovación y Universidades con las becas doctorales FPU17/03239 y FPU17/03800. El trabajo ha recibido también financiación de la Agencia Estatal de Investigación con los proyectos números RTI2018-100910-B-C41, RTI2018-100910-B-C43-AR y PID2021-126304OB-C41, el Instituto de Salud Carlos III - CIBER-BBN: Safe N Medtech and Smart-4-Fabry Projects (asociado a los programas europeos del marco H2020 (H2020/2014-2020) con la ayuda número 814607) y el Ministerio de Ciencia e Innovación con las beca predoctorales FPU17/03800 y FPU17/03239 / Terrés Haro, JM. (2023). Sistemas optoelectrónicos para terapias fototérmicas dirigidas al cáncer de piel y optogenética en la regeneración de tejido nervioso [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202285
|
169 |
Biomarker Identification Based on Human Electrohysterography for the Early Detection of Risk in Different Obstetric Scenarios: Preterm Birth, Induction of Labour and PostpartumDíaz Martínez, María del Alba 11 July 2024 (has links)
[ES] Durante la gestación, la mujer experimenta cambios fisiológicos, metabólicos y morfológicos que podrían conllevar importantes riesgos materno-fetales. En primer lugar, el parto prematuro es la principal causa de mortalidad infantil, con una prevalencia del 10% en gestaciones únicas (SG) y del 50% en gestaciones múltiples (MG). Por tanto, la caracterización de la actividad uterina, así como la comparación entre SG y MG, puede ayudar a comprender y manejar mejor esta patología. En segundo lugar, la inducción del parto (IOL) se asocia a un mayor riesgo de mortalidad y morbilidad materna cuando la fase latente del parto se prolonga excesivamente, especialmente en mujeres nulíparas. Sin embargo, la literatura es escasa y no se ha observado claramente la respuesta electrofisiológica uterina al fármaco de IOL. En este sentido, el estudio de biomarcadores basados en la electrohisterografía (EHG) podría ayudar a detectar precozmente el riesgo de fracaso de la IOL y orientar las decisiones clínicas en consecuencia. En tercer lugar, la hemorragia posparto (PPH) constituye una de las principales causas de mortalidad materna en el mundo. Su prevalencia es del 2-6%, y causa la muerte de 75.000 mujeres cada año. La principal causa es la atonía uterina, por lo que la EHG se convierte en la herramienta ideal para valorar el estado del útero e indicar el riesgo de PPH en función de la ausencia o no de actividad. Por ello, el objetivo de la presente tesis doctoral es la identificación de EHG-biomarcadores para la detección precoz de situaciones obstétricas de alto riesgo. Para ello, se generaron las bases de datos de señal EHG y de datos obstétricos para cada escenario en el Hospital Universitario y Politécnico La Fe. La mayor impulsividad y predictibilidad en MG respecto a SG durante el tercer trimestre, así como la correlación significativa entre los EHG-biomarcadores y el peso fetal, sugirió un acoplamiento electromecánico entre la sobredistensión y la actividad mioeléctrica registrada en superficie. En cuanto a la IOL, el grupo de éxito mostró un aumento significativo del número de contracciones y de la excitabilidad celular, junto con una menor complejidad, a partir de 2-3 horas tras la administración del fármaco de IOL. No se observaron cambios significativos con respecto a la actividad basal en el grupo de fracaso. La comparación basada en la paridad reportó una mayor ratio de progresión de la amplitud de la señal en el grupo de parosas. La actividad mioeléctrica en el postparto vaginal resultó ser más frecuente e intensa, además de exhibir una mayor excitabilidad celular que en los partos por cesárea. La capacidad discriminatoria de los biomarcadores de EHG para la detección precoz del riesgo en diversos contextos obstétricos ha hecho avanzar el conocimiento electrofisiológico actual del útero in vivo. La traslación del EHG a la práctica clínica requerirá la automatización del
procesamiento de señales, para culminar en la creación de modelos predictivos generalizados y robustos que apoyen la toma de decisiones clínicas, mejoren la planificación y gestión del parto, prevengan complicaciones maternas y fetales y optimicen la asignación de recursos hospitalarios. / [CA] Durant la gestació, la dona experimenta canvis fisiològics, metabòlics i morfològics que podrien comportar importants riscos matern-fetals. En primer lloc, el part prematur és la principal causa de mortalitat infantil, amb una prevalença del 10% en gestacions úniques (SG) i del 50% en gestacions múltiples (MG). Per tant, la caracterització de l'activitat uterina, així com la comparació entre SG i MG, ajuda a millorar la comprensió i gestió d'esta patologia. En segon lloc, la inducció del part (IOL) s'associa a un major risc de mortalitat i morbiditat materna quan la fase latent del part es prolonga excessivament, especialment en dones nul·lípares. No obstant això, la literatura és escassa i no s'ha observat clarament la resposta electrofisiològica uterina al fàrmac d'IOL. En este sentit, l'estudi de biomarcadors basats en la electrohisterografia (EHG) pot ajudar a detectar precoçment el risc de fracàs de la IOL i orientar les decisions clíniques en conseqüència. En tercer lloc, l'hemorràgia postpart (PPH) constituïx una de les principals causes de mortalitat materna en el món. La seua prevalença és del 2-6%, i causa la mort de 75.000 dones cada any. La principal causa és l'atonia uterina, per la qual cosa l'EHG es convertix en la ferramenta ideal per a valorar l'estat de l'úter i indicar el risc de PPH en funció de l'absència o no d'activitat. Per tant, l'objectiu de la present tesi doctoral és la identificació de biomarcadors d'EHG per a la detecció precoç de situacions d'alt risc obstètric. En este propòsit, s'han generat les bases de dades de senyals d'EHG i informació obstètrica de cada escenari en estudi a l'Hospital Universitari i Politècnic La Fe. La major impulsivitat i predictibilitat en MG respecte a SG durant el tercer trimestre, així com la correlació significativa entre els biomarcadors d'EHG i el pes fetal, va suggerir un acoblament electromecànic entre la sobredistensió i l'activitat mioelèctrica registrada en superfície. Pel que fa a l'IOL, el grup exitós va mostrar un augment significatiu del nombre de contraccions i de l'excitabilitat cel·lular, així com una menor complexitat, a partir de 2-3 hores tras l'administració del fàrmac de IOL. No es van observar canvis significatius respecte a l'activitat basal en el grup de fracàs. La comparació basada en la paritat va reportar una major ràtio de progressió de l'amplitud del senyal en el grup de paroses. L'activitat mioelèctrica en el postpart vaginal va ser més freqüent i intensa, a més d'exhibir una major excitabilitat cel·lular en els parts per cesària. La capacitat discriminatòria dels biomarcadors d'EHG per a la detecció precoç del risc en diversos contextos obstètrics ha fet avançar el coneixement electrofisiològic actual de l'úter in vivo. La translació de l'EHG a la pràctica clínica requerirá l'automatització del processament de senyals, per a culminar en la creació de models predictius generalitzats i robustos que donen suport a la presa de decisions clíniques, milloren la planificació i gestió del part, previnguen complicacions matern-fetals i optimitzen l'assignació de recursos hospitalaris. / [EN] During pregnancy, women undergo physiological, metabolic, and morphological changes that could lead to significant maternal-foetal risks. Firstly, preterm birth is the leading cause of infant mortality, with a prevalence 10% in single (SG) and 50% in multiple gestations (MG). The characterisation of uterine activity, as well as the comparison between SG and MG, may thus help to better understand and manage this pathology. Secondly, induction of labour (IOL) is associated with an increased risk of maternal mortality and morbidity when the latent phase of labour is excessively prolonged, especially in nulliparous women. However, the literature is sparse and the uterine electrophysiological response to the IOL drug has not been clearly observed. In this sense, the study of biomarkers based on electrohysterography (EHG) could help to early detect the risk of IOL failure and guide clinical decisions accordingly. Thirdly, postpartum haemorrhage (PPH) constitutes one of the main causes of maternal mortality in the world. Its prevalence is 2-6%, causing the death of 75,000 women each year. The main cause is uterine atony, so EHG becomes the ideal tool to assess the state of the uterus and indicate the PPH risk based on the absence or not of activity. Therefore, the aim of the present doctoral thesis is the identification of EHG-biomarkers for the early detection of high-risk obstetrical situations. For this purpose, the EHG signal and obstetric databases were generated for each scenario at University and Polytechnic Hospital La Fe. The greater impulsivity and predictability in MG compared to SG during the third trimester, in addition to the significant correlation between EHGbiomarkers and foetal weight, suggested an electromechanical coupling between overdistension and surface recorded myoelectric activity. As for IOL, the successful group showed a significant increase in the number of contractions and cellular excitability, along with reduced complexity, from 2-3 hours after the IOL drug administration. No significant changes from baseline activity were observed in the failed group. Parity-based comparison reported a higher progression ratio of signal amplitude for the parous group. Myoelectric activity in vaginal postpartum was found to be more frequent and intense, in addition to exhibit a greater cellular excitability than in caesarean deliveries. Discriminatory capacity of EHGbiomarkers for early risk detection in various obstetric contexts has advanced current electrophysiological knowledge of the uterus in vivo. The translation of the EHG to clinical practice will entail the signal processing automation, culminating in the creation of generalised and robust predictive models that support clinical decision-making, improve birth planning and management, prevent maternal and foetal complications and optimise the allocation of hospital resources. / This work was supported by the Spanish Ministry of Economy and Competitiveness, the European Regional Development Fund (MCIU/AEI/FEDER, UE RTI2018-094449-A-I00-AR and PID2021-124038OB-I00 and the Generalitat Valenciana (AICO/2019/220) / Díaz Martínez, MDA. (2024). Biomarker Identification Based on Human Electrohysterography for the Early Detection of Risk in Different Obstetric Scenarios: Preterm Birth, Induction of Labour and Postpartum [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/206155
|
170 |
Applications of Deep Leaning on Cardiac MRI: Design Approaches for a Computer Aided DiagnosisPérez Pelegrí, Manuel 27 April 2023 (has links)
[ES] Las enfermedades cardiovasculares son una de las causas más predominantes de muerte y comorbilidad en los países desarrollados, por ello se han realizado grandes inversiones en las últimas décadas para producir herramientas de diagnóstico y aplicaciones de tratamiento de enfermedades cardíacas de alta calidad. Una de las mejores herramientas de diagnóstico para caracterizar el corazón ha sido la imagen por resonancia magnética (IRM) gracias a sus capacidades de alta resolución tanto en la dimensión espacial como temporal, lo que permite generar imágenes dinámicas del corazón para un diagnóstico preciso. Las dimensiones del ventrículo izquierdo y la fracción de eyección derivada de ellos son los predictores más potentes de morbilidad y mortalidad cardiaca y su cuantificación tiene connotaciones importantes para el manejo y tratamiento de los pacientes. De esta forma, la IRM cardiaca es la técnica de imagen más exacta para la valoración del ventrículo izquierdo. Para obtener un diagnóstico preciso y rápido, se necesita un cálculo fiable de biomarcadores basados en imágenes a través de software de procesamiento de imágenes. Hoy en día la mayoría de las herramientas empleadas se basan en sistemas semiautomáticos de Diagnóstico Asistido por Computador (CAD) que requieren que el experto clínico interactúe con él, consumiendo un tiempo valioso de los profesionales cuyo objetivo debería ser únicamente interpretar los resultados. Un cambio de paradigma está comenzando a entrar en el sector médico donde los sistemas CAD completamente automáticos no requieren ningún tipo de interacción con el usuario. Estos sistemas están diseñados para calcular los biomarcadores necesarios para un diagnóstico correcto sin afectar el flujo de trabajo natural del médico y pueden iniciar sus cálculos en el momento en que se guarda una imagen en el sistema de archivo informático del hospital.
Los sistemas CAD automáticos, aunque se consideran uno de los grandes avances en el mundo de la radiología, son extremadamente difíciles de desarrollar y dependen de tecnologías basadas en inteligencia artificial (IA) para alcanzar estándares médicos. En este contexto, el aprendizaje profundo (DL) ha surgido en la última década como la tecnología más exitosa para abordar este problema. Más específicamente, las redes neuronales convolucionales (CNN) han sido una de las técnicas más exitosas y estudiadas para el análisis de imágenes, incluidas las imágenes médicas. En este trabajo describimos las principales aplicaciones de CNN para sistemas CAD completamente automáticos para ayudar en la rutina de diagnóstico clínico mediante resonancia magnética cardíaca. El trabajo cubre los puntos principales a tener en cuenta para desarrollar tales sistemas y presenta diferentes resultados de alto impacto dentro del uso de CNN para resonancia magnética cardíaca, separados en tres proyectos diferentes que cubren su aplicación en la rutina clínica de diagnóstico, cubriendo los problemas de la segmentación, estimación automática de biomarcadores con explicabilidad y la detección de eventos.
El trabajo completo presentado describe enfoques novedosos y de alto impacto para aplicar CNN al análisis de resonancia magnética cardíaca. El trabajo proporciona varios hallazgos clave, permitiendo varias formas de integración de esta reciente y creciente tecnología en sistemas CAD completamente automáticos que pueden producir resultados altamente precisos, rápidos y confiables. Los resultados descritos mejorarán e impactarán positivamente el flujo de trabajo de los expertos clínicos en un futuro próximo. / [CA] Les malalties cardiovasculars són una de les causes de mort i comorbiditat més predominants als països desenvolupats, s'han fet grans inversions en les últimes dècades per tal de produir eines de diagnòstic d'alta qualitat i aplicacions de tractament de malalties cardíaques. Una de les tècniques millor provades per caracteritzar el cor ha estat la imatge per ressonància magnètica (IRM), gràcies a les seves capacitats d'alta resolució tant en dimensions espacials com temporals, que permeten generar imatges dinàmiques del cor per a un diagnòstic precís. Les dimensions del ventricle esquerre i la fracció d'ejecció que se'n deriva són els predictors més potents de morbiditat i mortalitat cardíaca i la seva quantificació té connotacions importants per al maneig i tractament dels pacients. D'aquesta manera, la IRM cardíaca és la tècnica d'imatge més exacta per a la valoració del ventricle esquerre. Per obtenir un diagnòstic precís i ràpid, es necessita un càlcul fiable de biomarcadors basat en imatges mitjançant un programa de processament d'imatges. Actualment, la majoria de les ferramentes emprades es basen en sistemes semiautomàtics de Diagnòstic Assistit per ordinador (CAD) que requereixen que l'expert clínic interaccioni amb ell, consumint un temps valuós dels professionals, l'objectiu dels quals només hauria de ser la interpretació dels resultats. S'està començant a introduir un canvi de paradigma al sector mèdic on els sistemes CAD totalment automàtics no requereixen cap tipus d'interacció amb l'usuari. Aquests sistemes estan dissenyats per calcular els biomarcadors necessaris per a un diagnòstic correcte sense afectar el flux de treball natural del metge i poden iniciar els seus càlculs en el moment en què es deixa la imatge dins del sistema d'arxius hospitalari.
Els sistemes CAD automàtics, tot i ser molt considerats com un dels propers grans avanços en el món de la radiologia, són extremadament difícils de desenvolupar i depenen de les tecnologies d'Intel·ligència Artificial (IA) per assolir els estàndards mèdics. En aquest context, l'aprenentatge profund (DL) ha sorgit durant l'última dècada com la tecnologia amb més èxit per abordar aquest problema. Més concretament, les xarxes neuronals convolucionals (CNN) han estat una de les tècniques més utilitzades i estudiades per a l'anàlisi d'imatges, inclosa la imatge mèdica. En aquest treball es descriuen les principals aplicacions de CNN per a sistemes CAD totalment automàtics per ajudar en la rutina de diagnòstic clínic mitjançant ressonància magnètica cardíaca. El treball recull els principals punts a tenir en compte per desenvolupar aquest tipus de sistemes i presenta diferents resultats d'impacte en l'ús de CNN a la ressonància magnètica cardíaca, tots separats en tres projectes principals diferents, cobrint els problemes de la segmentació, estimació automàtica de *biomarcadores amb *explicabilidad i la detecció d'esdeveniments.
El treball complet presentat descriu enfocaments nous i potents per aplicar CNN a l'anàlisi de ressonància magnètica cardíaca. El treball proporciona diversos descobriments clau, que permeten la integració de diverses maneres d'aquesta tecnologia nova però en constant creixement en sistemes CAD totalment automàtics que podrien produir resultats altament precisos, ràpids i fiables. Els resultats descrits milloraran i afectaran considerablement el flux de treball dels experts clínics en un futur proper. / [EN] Cardiovascular diseases are one of the most predominant causes of death and comorbidity in developed countries, as such heavy investments have been done in recent decades in order to produce high quality diagnosis tools and treatment applications for cardiac diseases. One of the best proven tools to characterize the heart has been magnetic resonance imaging (MRI), thanks to its high-resolution capabilities in both spatial and temporal dimensions, allowing to generate dynamic imaging of the heart that enable accurate diagnosis. The dimensions of the left ventricle and the ejection fraction derived from them are the most powerful predictors of cardiac morbidity and mortality, and their quantification has important connotations for the management and treatment of patients. Thus, cardiac MRI is the most accurate imaging technique for left ventricular assessment. In order to get an accurate and fast diagnosis, reliable image-based biomarker computation through image processing software is needed. Nowadays most of the employed tools rely in semi-automatic Computer-Aided Diagnosis (CAD) systems that require the clinical expert to interact with it, consuming valuable time from the professionals whose aim should only be at interpreting results. A paradigm shift is starting to get into the medical sector where fully automatic CAD systems do not require any kind of user interaction. These systems are designed to compute any required biomarkers for a correct diagnosis without impacting the physician natural workflow and can start their computations the moment an image is saved within a hospital archive system.
Automatic CAD systems, although being highly regarded as one of next big advances in the radiology world, are extremely difficult to develop and rely on Artificial Intelligence (AI) technologies in order to reach medical standards. In this context, Deep learning (DL) has emerged in the past decade as the most successful technology to address this problem. More specifically, convolutional neural networks (CNN) have been one of the most successful and studied techniques for image analysis, including medical imaging. In this work we describe the main applications of CNN for fully automatic CAD systems to help in the clinical diagnostics routine by means of cardiac MRI. The work covers the main points to take into account in order to develop such systems and presents different impactful results within the use of CNN to cardiac MRI, all separated in three different main projects covering the segmentation, automatic biomarker estimation with explainability and event detection problems.
The full work presented describes novel and powerful approaches to apply CNN to cardiac MRI analysis. The work provides several key findings, enabling the integration in several ways of this novel but non-stop growing technology into fully automatic CAD systems that could produce highly accurate, fast and reliable results. The results described will greatly improve and impact the workflow of the clinical experts in the near future. / Pérez Pelegrí, M. (2023). Applications of Deep Leaning on Cardiac MRI: Design Approaches for a Computer Aided Diagnosis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/192988
|
Page generated in 0.0723 seconds