151 |
Implementación VLSI del algoritmo de proyecciones sucesivas para detección de sistemas MIMOMarín-Roig Ramón, José 05 April 2016 (has links)
[EN] The insatiable demand for bandwidth of communication on the part of end-users, linked to the lowering the price of the terminals and in telecommunication services have led to a spectacular growth of the wireless communications market in recent years.
Those entities that are responsible, at the international level, of the technological standardization have known to guide this growth writing standards as LTE (Long Term Evolution), IEEE 802.11 (WiFi) and IEEE 802.16 (WiMax) or 3G networks or 4GPP. They all share a common denominator, for the improvement of the spectral efficiency, the use of MIMO technologies, which uses multiple antennas on transmitter and receiver, and the use of high modulation schemes as 256QAM, introduced in revision 12 of the standard 3GPP-LTE.
Under this perspective of great gains in the spectral efficiency, it is not surprising that MIMO technology has been incorporated into the standards mentioned above. However, achieving these gains is not trivial, to the extent that the VLSI implementation of this technology has become a challenge.
In this thesis has undertaken a comprehensive study of different MIMO detectors, studying those belonging to the two families that show best features for being implemented in VLSI technology: successive interference cancellation (VBLAST detector) and based on a search in tree (KBest detector). Although initially the benefits achieved by the seconds (KBest) are far superior to those of the first (VBLAST), the recent appearance in the specialized literature of the Successive Projections Algorithm (SPA) opens the door to the development of a new detector, belonging to the family of the detectors of Successive Interference Cancellations (SIC), which will be able to compete in performance with the KBest detectors.
This work provides the necessary algorithmic keys that make viable and competitive the hardware implementation of the SPA algorithm. In particular, two mechanisms of control of repetitions have been developed: Simplified-ESPA (SESPA) and Table-ESPA (TESPA), and the mechanisms for obtaining hard and soft output, existing in the literature, have been adapted to this algorithm. It has designed the first VLSI architecture for the SPA algorithm, being highly flexible, in the sense that adapts to different conditions of transmission and complies with the latest published specifications in the WiMAX and LTE standards. The flexibility of the architecture allows you to select different configurations of antennas in transmission and reception, from 2x2 to 4x4, different modulation schemes from QPSK until 256QAM, controls the balance between transmission rate and the benefits BER/FER and offers the soft output and hard output decisions.
Finally, with this architecture has been implemented the SESPA and TESPA detectors, with soft output and hard output, in FPGA and ASIC technology. These detectors have been evaluated and compared to the best published in the specialized literature, achieving a peak rate of 465 Mbps for the detector SESPA 4x4 256QAM, with an area of 3.83 mm2 with a 90 nm technology. The detectors implemented offer as added value, in addition to the high configurability, the ability to decode 256-QAM without increasing the area. This feature is highly competitive with the non-linear detectors based on KBest, which are very sensitive, in regard to decoding rate and area, with the selected modulation scheme. In addition, the detectors based on ESPA reach a FER performance (soft output) clearly competitive with KBest detectors, due to a higher quality of the LLR generated by the ESPA. The comparison with other flexible architectures selected shows that the SESPA and TESPA detectors offer the greater configurability of transmission parameters and the best balance between area, BER performance and detection rate. / [ES] La insaciable demanda de ancho de banda de comunicación por parte de los usuarios finales, unido al abaratamiento de los terminales y de los servicios de telecomunicación han provocado un crecimiento espectacular del mercado de las comunicaciones inalámbricas en estos últimos años.
Las entidades responsables, a nivel internacional, de la estandarización tecnológica han sabido acompañar y guiar este crecimiento redactando normas como LTE (Long Term Evolution), IEEE 802.11 (WiFi) e IEEE 802.16 (WiMax) o las redes 3G o 4GPP. Todas ellas comparten como denominador común, para la mejora de la eficiencia espectral, el uso de las tecnologías MIMO, que utiliza múltiples antenas en emisor y receptor, y el uso de esquemas de modulación elevados como 256QAM, introducido en la revisión 12 del estándar 3GPP-LTE.
Bajo esta perspectiva de grandes ganancias en la eficiencia espectral, no es de extrañar que la tecnología MIMO haya sido incorporada en los estándares mencionados anteriormente. No obstante, conseguir estas ganancias no es trivial, hasta el punto de que la implementación VLSI de esta tecnología se ha convertido en un reto.
En esta tesis se ha realizado un estudio exhaustivo de diferentes detectores MIMO, fijando el punto de mira en aquellos pertenecientes a las dos familias que muestran mejores características para su implementación VLSI: cancelación sucesiva de interferencias (detector VBLAST) y basados en búsqueda en árbol (detector KBest). Aunque inicialmente las prestaciones alcanzadas por los segundos (KBest) son muy superiores a las de los primeros (VBLAST), la reciente aparición en la literatura especializada del algoritmo de proyecciones sucesivas (SPA) abre la puerta al desarrollo de un nuevo detector, que pueda competir en prestaciones con los detectores KBest.
La tesis aporta las claves algorítmicas necesarias que hacen viable y competitiva la implementación hardware del algoritmo SPA. En particular, se han desarrollado dos mecanismos de control de repeticiones: Simplified-ESPA (SESPA) y Table-ESPA (TESPA), y se han adaptado los mecanismos de obtención de salidas hard output y soft output, existentes en la literatura, a este algoritmo.
Se ha diseñado la primera arquitectura VLSI para el algoritmo SPA, siendo ésta altamente flexible, en el sentido de que se adapta a diferentes condiciones de transmisión y cumple con las últimas especificaciones publicadas en los estándares WiMAX y LTE. La flexibilidad de la arquitectura permite seleccionar diferentes configuraciones de antenas en transmisión y recepción, desde 2x2 hasta 4x4, diferentes esquemas de modulación desde QPSK hasta 256QAM, controla el balance entre tasa de transmisión y las prestaciones BER/FER y ofrece las decisiones soft output y hard output.
Finalmente, con esta arquitectura se ha realizado la implementación de los detectores SESPA y TESPA, con salidas soft output y hard output, en los dispositivos FPGA y ASIC. Estos detectores han sido evaluados y comparados con los mejores publicados en la literatura especializada, consiguiendo la tasa de pico máxima de 465 Mbps para el detector SESPA 4x4 256QAM, en un área de 3.83 mm2 con una tecnología de 90 nm. Los detectores implementados ofrecen como valor añadido, además de la alta configurabilidad, la posibilidad de decodificar 256QAM sin incrementar el área. Esta característica es altamente competitiva con los detectores no lineales basados en KBest, que son muy sensibles, en cuanto a tasa de decodificación y área se refiere, con el esquema de modulación seleccionado. Además, los detectores basados en ESPA alcanzan unas prestaciones FER (soft output) claramente competitivas con los detectores KBest, debido a la mayor calidad del LLR generado por el ESPA. La comparación con otras arquitecturas flexibles seleccionadas demuestra que los detectores SESPA y TESPA ofrecen la mayor configurabilidad de parámetros de transmisión y el mejor equilibrio entre área, pr / [CA] La insaciable demanda d'ample de banda de comunicació per part dels usuaris finals, unit a l'abaratiment dels terminals i dels servicis de telecomunicació han provocat un creixement espectacular del mercat de les comunicacions sense fils en aquests últims anys.
Les entitats responsables, a nivell internacional, de l'estandardització tecnològica han sabut acompanyar i guiar aquest creixement redactant normes com LTE (Long Term Evolution), IEEE 802.11 (WiFi) i IEEE 802.16 (WiMax) o les xarxes 3G o 4GPP. Totes elles comparteixen com denominador comú, per a la millora de l'eficiència espectral, l'ús de les tecnologies MIMO, que utilitza múltiples antenes en emissor i receptor, i l'ús d'esquemes de modulació elevats com 256QAM, introduït en la revisió 12 de l'estàndard 3GPP-LTE.
Baix esta perspectiva de grans guanys en l'eficiència espectral, no és d'estranyar que la tecnologia MIMO hi haja estat incorporada en els normatives mencionats anteriorment. No obstant això, aconseguir aquests guanys no és trivial, fins l'extrem que la implementació VLSI d'aquesta tecnologia s'ha convertit en un repte.
En aquesta tesi s'ha realitzat un estudi exhaustiu de diferents detectors MIMO, fixant el punt de mira en aquells que pertanyen a les dos famílies que mostren millors característiques per a la seua implementació VLSI: cancel-lació successiva d'interferències (detector VBLAST) i els basats en recerca en arbre (detector KBest). Encara que inicialment les prestacions aconseguides pels segons (KBest) són molt superiors a les dels primers (VBLAST), la recent aparició en la literatura especialitzada de l'algoritme de projeccions successives (SPA) permet el desenvolupament d'un nou detector, que puga competir en prestacions amb els detectors KBest.
Este treball aporta les claus algorítmiques necessàries que fan viable i competitiva la implementació hardware de l'algoritme SPA. En particular, s'han desenvolupat dos mecanismes de control de repeticions: Simplified-ESPA (SESPA) i Table-ESPA (TESPA), i s'han adaptat els mecanismes d'obtenció d'eixides hard-output i soft-output, existents en la literatura, a aquest algoritme.
S'ha dissenyat la primera arquitectura VLSI per a l'algoritme SPA, sent aquesta altament flexible, en el sentit de que s'adapta a diferents condicions de transmissió i acompleix les últimes especificacions publicades en els estàndards WiMax i LTE. La flexibilitat de l'arquitectura permet seleccionar diferents configuracions d'antenes en transmissió i recepció, des de 2x2 fins 4x4, diferents esquemes de modulació des de QPSK fins 256QAM, controla el balanç entre taxa de transmissió i les prestacions BER/FER i ofereix les decisions hard output i soft output.
Finalment, amb l'arquitectura proposta s'ha realitzat la implementació dels detectors SESPA i TESPA, amb eixides hard output i soft output, en els dispositius FPGA i en ASIC. Aquests detectors han segut valorats i comparats amb els millors publicats en la literatura especialitzada, i s'ha aconseguint la taxa de pic màxim de 465 Mbps per al detector SESPA 4x4 256QAM, dins una àrea de 3.83 mm2 en una tecnologia de 90 nm. Els detectors implementats ofereixen com a valor afegit, a més de l'alta configurabilitat, la possibilitat de decodificar 256QAM sense incrementar l'àrea. Esta característica és altament competitiva en els detectors no lineals basats en KBest, que són molt sensibles, en relació a taxa de decodificació i a l'àrea del circuit, a l'esquema de modulació seleccionada. A més a més, els detectors basats en ESPA aconsegueixen unes prestacions FER (soft output) clarament competitives amb els detectors KBEST, degut a la major qualitat del LLR generat per l'ESPA. La comparació amb altres arquitectures flexibles seleccionades demostra que els detectors SESPA i TESPA ofereixen una major configurabilitat de paràmetres de transmissió i un millor equilibri entre l'àrea del circuit, les prestacions BER i la taxa de dete / Marín-Roig Ramón, J. (2016). Implementación VLSI del algoritmo de proyecciones sucesivas para detección de sistemas MIMO [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62164
|
152 |
Propuesta de uso del paradigma de coreografía de procesos para crear sistemas de eSalud en entornos heterogéneosBayo Montón, José Luis 18 April 2023 (has links)
[ES] Los sistemas de salud actuales están viendo cómo la cantidad de pacientes a atender y de servicios diferentes que han de prestar, es cada vez mayor, por lo que se cuestiona si serán sostenibles a largo plazo. Uno de los factores importantes de este aumento es el envejecimiento de la población, lo que implica un mayor número de pacientes crónicos y de personas dependientes. Al mismo tiempo, se genera la necesidad de abordar soluciones de prevención sobre la población general.
Para hacer frente a estos problemas, se está recurriendo a la aplicación de las TIC en el ámbito de la salud, son los llamados sistemas de eSalud. En el desarrollo de sistemas de eSalud es necesario tener en cuenta que deben trabajar en entornos altamente heterogéneos y cambiantes. Además, han de ser capaces de adaptarse a las nuevas necesidades demandadas por la población, todo ello sin reducir la calidad de los servicios ya prestados y sin disparar los costes del sistema.
Al desarrollar un sistema software, el modelo de arquitectura elegido marca qué características se van a potenciar. El paradigma de Arquitectura Orientada a Servicios (SOA) presenta entre sus principales beneficios una alta flexibilidad, reducción de costes y desarrollo rápido, así como permite la escalabilidad de sistemas. Por lo que puede ser un buen candidato a la hora de crear sistemas de eSalud.
Existen diferentes formas de construir una arquitectura SOA, atendiendo a cómo se componen sus servicios y a cómo se aplican las directrices SOA. En esta tesis se propone el uso del paradigma de coreografía de procesos, siendo éste un modelo en el que se busca construir la arquitectura del sistema desde el punto de vista de los procesos de negocio de la organización. Este paradigma trabaja desde el concepto de un proceso único definido de forma distribuida, empleando coreografía de servicios para la composición. Es decir, no existe un elemento que centralice la toma de decisiones, donde cada servicio es consciente de qué debe realizar y cómo interactuar con el resto.
En la coreografía de procesos se prioriza la eficiencia del sistema, aumentando el acoplamiento entre servicios, lo que puede reducir la flexibilidad del sistema SOA. Pero genera un sistema con mayor rendimiento y con una mejor alineación con los procesos de negocio. Además, la coreografía es más robusta que otros mecanismos de composición y ayuda con la integración de sistemas entre empresas.
El objetivo de esta tesis es validar si el paradigma de coreografía de procesos es aplicable al desarrollo de sistemas de eSalud. Para ello se ha realizado la aplicación de este paradigma en tres escenarios de eSalud diferentes.
En el primero de los escenarios, se creó un sistema para integrar y evaluar un dispositivo tecnológico puntero, las Google Glass. Esto demostró que se puede crear un sistema de eSalud basado en coreografía de procesos que integre dispositivos tecnológicos complejos.
En el segundo de los escenarios, se validó el paradigma en un entorno real, creando un sistema distribuido de ejecución de modelos híbridos para la predicción y detección de diabetes tipo 2. El sistema permitió construir servicios para la ejecución de los modelos híbridos, integrando motores estadísticos externos y sistemas de terceros de acceso a datos clínicos. De esta forma se validó que la coreografía de procesos ayuda a la integración con sistemas externos, permitiendo un desarrollo rápido y la creación de sistemas distribuidos.
En el tercero de los escenarios, se aplica el paradigma orientado al modelo de IoT integrando sensores portables para crear un sistema de eSalud. El sistema desarrollado integra un kit de sensores de eSalud para el seguimiento y monitorización remota de pacientes, comparando su rendimiento en un ordenador y en una Raspberry Pi. El resultado refrenda la hipótesis de que la coreografía de procesos permite aplicarse para crear fácilmente sistemas de eSalud orientados a IoT e integrar sensores portables de este ámbito. / [CA] Els sistemes de salut actuals estan veient com la quantitat de pacients a atendre i de servicis diferents que han de prestar, és cada vegada major, per la qual cosa es qüestiona si seran sostenibles a llarg termini. Un dels factors importants d'aquest augment és l'envelliment de la població, la qual cosa implica un major nombre de pacients crònics i de persones dependents. Al mateix temps, es genera la necessitat d'abordar solucions de prevenció sobre la població general.
Per a fer front a aquests problemes, s'està recorrent a l'aplicació de les TIC en l'àmbit de la salut, són els cridats sistemes d'eSalut. En el desenvolupament de sistemes d'eSalut és necessari tindre en compte que han de treballar en entorns altament heterogenis i canviants. A més, han de ser capaços d'adaptar-se a les noves necessitats demandades per la població, tot això sense reduir la qualitat dels servicis ja prestats i sense disparar els costos del sistema.
En desenvolupar un sistema programari, el model d'arquitectura triat marca quines característiques es potenciaran. El paradigma d'Arquitectura Orientada a Servicis (SOA) presenta entre els seus principals beneficis una alta flexibilitat, reducció de costos i desenrotllament ràpid, així com permet l'escalabilitat de sistemes. Pel que pot ser un bon candidat a l'hora de crear sistemes d'eSalut.
Hi ha diferents formes de construir una arquitectura SOA, atenent a com es componen els seus servicis i a com s'apliquen les directrius SOA. En esta tesi es proposa l'ús del paradigma de coreografia de processos, sent aquest un model en el qual es busca construir l'arquitectura del sistema des del punt de vista dels processos de negoci de l'organització. Este paradigma treballa des del concepte d'un procés únic definit de forma distribuïda, emprant coreografia de servicis per a la composició. És a dir, no hi ha un element que centralitze la presa de decisions, on cada servici és conscient de què ha de realitzar i com interactuar amb la resta.
En la coreografia de processos es prioritza l'eficiència del sistema, augmentant l'adaptament entre servicis, la qual cosa pot reduir la flexibilitat del sistema SOA. Però genera un sistema amb major rendiment i amb una millor alineació amb els processos de negoci. A més, la coreografia és més robusta que altres mecanismes de composició i ajuda amb la integració de sistemes entre empreses.
L'objectiu d'aquesta tesi és validar si el paradigma de coreografia de processos és aplicable al desenrotllament de sistemes d'eSalut. Per a això s'ha realitzat l'aplicació d'aquest paradigma en tres escenaris d'eSalut diferents.
En el primer dels escenaris, es va crear un sistema per a integrar i avaluar un dispositiu tecnològic punter, les Google Glass. Açò va demostrar que es pot crear un sistema d'eSalut basat en coreografia de processos que integre dispositius tecnològics complexos.
En el segon dels escenaris, es va validar el paradigma en un entorn real, creant un sistema distribuït d'execució de models híbrids per a la predicció i detecció de diabetis tipus 2. El sistema va permetre construir servicis per a l'execució dels models híbrids, integrant motors estadístics externs i sistemes de tercers d'accés a dades clíniques. D'aquesta manera es va validar que la coreografia de processos ajuda amb la integració amb sistemes externs, permetent un desenrotllament ràpid i la creació de sistemes distribuïts.
En el tercer dels escenaris, s'aplica el paradigma orientat al model d'IoT integrant sensors portables per a crear un sistema d'eSalut. El sistema desenrotllat integra un kit de sensors d'eSalut per al seguiment i monitorització remota de pacients, comparant el seu rendiment en un ordinador i en una Raspberry Pi. El resultat referenda la hipòtesi que la coreografia de processos permet aplicar-se per a crear fàcilment sistemes d'eSalut orientats a IoT i integrar sensors portables d'este àmbit. / [EN] Today's health systems are seeing an increasing number of patients to be cared for, as well as different services to be provided, raising questions as to whether they will be sustainable in the long term. One of the critical factors in this increase is the ageing of the population, which implies a more significant number of chronic patients and dependents. At the same time, there is a need to address prevention solutions in the general population.
To address these problems, the application of ICTs in the health field, the so-called eHealth systems, is being used. In the development of eHealth systems, it is necessary to consider that they have to work in highly heterogeneous and changing environments. Moreover, they must be able to adapt to the new needs demanded by the population, without reducing the quality of the services already provided and without increasing the costs of the system.
When developing a software system, the architecture model chosen determines which characteristics are to be enhanced. The Service Oriented Architecture (SOA) paradigm has among its main benefits high flexibility, cost reduction and rapid development, as well as allowing the scalability of systems. Therefore, it can be a good candidate when creating eHealth systems.
There are different ways to build an SOA architecture, depending on how its services are composed and how SOA guidelines are applied. This thesis proposes the use of the process choreography paradigm, which is a model that seeks to build the architecture of the system from the point of view of the organisation's business processes. This paradigm works from the concept of a single process defined in a distributed way, using service choreography for the composition. In other words, there is no centralised decision-making element, where each service is aware of what it must do and how to interact with the rest.
Process choreography prioritises system efficiency by increasing coupling between services, which can reduce the flexibility of the SOA system. But it generates a system with higher performance and better alignment with business processes. In addition, choreography is more robust than other composition mechanisms and helps with cross-company system integration.
The aim of this thesis is to validate whether the process choreography paradigm is applicable to the development of eHealth systems. To this end, the application of this paradigm has been carried out in three different eHealth scenarios.
In the first scenario, a system was created to integrate and evaluate a cutting-edge technological device, Google Glass. This demonstrated that it is possible to create an eHealth system based on process choreography that integrates complex technological devices.
In the second scenario, the paradigm was validated in a real environment, creating a distributed hybrid model execution system for the prediction and detection of type 2 diabetes. The system allowed building services for hybrid model execution, integrating external statistical engines and third-party services to access clinical data. This scenario validated that the process choreography aids integration with external systems, enabling rapid development and the creation of distributed systems.
In the third scenario, the paradigm is applied to the IoT model by integrating wearable sensors to create an eHealth system. The developed system integrates an eHealth sensor kit for remote patient tracking and monitoring, comparing its performance on a computer and a Raspberry Pi. The result supports the hypothesis that process choreography can be applied to easily create IoT-oriented eHealth systems and integrate IoT wearable sensors. / Bayo Montón, JL. (2023). Propuesta de uso del paradigma de coreografía de procesos para crear sistemas de eSalud en entornos heterogéneos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/192822
|
153 |
Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECGJiménez Serrano, Santiago 07 September 2023 (has links)
[ES] Las enfermedades cardiovasculares son una de las principales causas de mortalidad y morbilidad en el mundo. Entre las arritmias más comunes en adultos destaca la Fibrilación Auricular (FA), presentando una tendencia de crecimiento muy significativa, sobre todo en población de edad avanzada o con trastornos de obesidad. En el otro extremo, nos encontramos con la Miocardiopatía Arritmogénica (MCA), considerada una enfermedad rara con una prevalencia de 1:2000-5000 pero con gran afectación entre familiares directos, causante de muerte súbita cardiaca (MSC), y con un diagnóstico clínico complicado. Más allá de la FA o la MCA, existe una amplia variedad de patologías derivadas de una disfunción en la activación y conducción eléctrica del corazón.
Para todas ellas, el electrocardiograma (ECG) continúa figurando como la primera y principal técnica de diagnóstico clínico, siendo una herramienta fundamental de cribado y detección de patologías relativamente económica y ampliamente accesible. Sin embargo, el diagnóstico preciso a partir de la interpretación del ECG requiere de médicos experimentados, siendo ésta una tarea que consume recursos, tiempo y que además está sujeta a la variabilidad entre observadores.
Respecto a las afecciones cardiacas más comunes, conseguir un diagnóstico de forma automática que sea fiable, utilizando tanto 12 como un número reducido o único de derivaciones, sigue presentándose como un desafío. Este aspecto cobra especial relevancia con el uso cada vez más extendido de dispositivos portátiles o wearables, los cuales están ganando un gran interés para la detección temprana y preventiva de enfermedades cardiacas, registrando normalmente un número reducido de derivaciones ECG. Dicho uso masivo les confiere un gran potencial para facilitar el cribado y seguimiento de distintas afecciones en una amplia variedad de escenarios, a pesar de registrar señales de peor calidad en comparación con equipos certificados para uso clínico. El principal reto con estos dispositivos es encontrar un equilibrio adecuado entre la sensibilidad y la especificidad en la detección de ritmos cardiacos susceptibles de ser patológicos. En consecuencia, es indispensable diseñar e implementar algoritmos precisos adecuados para dispositivos móviles o portátiles capaces de detectar distintas afecciones cardiacas en registros de ECG.
Respecto las afecciones cardiacas menos comunes como el caso de la MCA, es necesario incrementar la sensibilidad en la detección durante los cribados intra-familiares realizados tras una MSC. Para ello, sería posible explorar biomarcadores propios a esta enfermedad obtenidos mediante técnicas de procesado de señales ECG, además de modelos de clasificación que hagan uso de ellos, contribuyendo así a reducir el número de casos de muerte súbita.
En base a lo descrito anteriormente, la presente tesis estudia las posibilidades de diagnóstico basadas en técnicas de aprendizaje y clasificación automática en dos escenarios principales. El primero aborda la detección de la FA, así como un amplio abanico de otras patologías cardiacas comunes, donde proponemos y validamos distintos modelos de clasificación de bajo consumo computacional. Todo esto, utilizando extensas bases de datos de acceso abierto, y haciendo énfasis en enfoques de derivación única, ya que son los más utilizados en dispositivos móviles e inteligentes. El segundo escenario se centra en la detección de MCA mediante las 12 derivaciones estándar del ECG, donde proponemos y validamos nuevos biomarcadores y modelos de clasificación que tratan de incrementar la sensibilidad de los cribados intra-familiares realizados tras una MSC. Para ello, utilizamos una base de datos específica de la Unidad de Cardiopatías Familiares del Hospital Universitario y Politécnico La Fe de València. / [CA] Les malalties cardiovasculars són una de les principals causes de mortalitat i morbiditat en el món. Entre les arrítmies més comunes en adults destaca la Fibril·lació Auricular (FA), presentant una tendència de creixement molt significativa, sobretot en població d'edat avançada o amb trastorns d'obesitat. En l'altre extrem, ens trobem amb la Miocardiopatia Arritmogènica (MCA), considerada una malaltia rara amb una prevalença de 1:2000-5000 però amb gran afectació entre familiars directes, causant de mort sobtada cardíaca (MSC), i amb un diagnòstic clínic complicat. Més enllà de la FA o la MCA, existeix una àmplia varietat de patologies derivades d'una disfunció en l'activació i conducció elèctrica del cor.
Per a totes elles, l'electrocardiograma (ECG) continua figurant com la primera i principal tècnica de diagnòstic clínic, sent una eina fonamental de cribratge i detecció de patologies relativament econòmica i àmpliament accessible. No obstant això, el diagnòstic precís a partir de la interpretació del ECG requereix de metges experimentats, sent aquesta una tasca que consumeix recursos, temps i que a més està subjecta a la variabilitat entre observadors.
Respecte a les afeccions cardíaques més comunes, aconseguir un diagnòstic de manera automàtica que siga fiable, utilitzant tant 12 com un número reduït o únic de derivacions, continua presentant-se com un desafiament. Aquest aspecte cobra especial rellevància amb l'ús cada vegada més estés de dispositius portàtils o wearables, els quals estan guanyant un gran interés per a la detecció precoç i preventiva de malalties cardíaques, registrant normalment un nombre reduït de derivacions ECG. Aquest ús massiu els confereix un gran potencial per a facilitar el cribratge i seguiment de diferents afeccions en una àmplia varietat d'escenaris, malgrat registrar senyals de pitjor qualitat en comparació amb equips certificats per a ús clínic. El principal repte amb aquests dispositius és trobar un equilibri adequat entre la sensibilitat i l'especificitat en la detecció de ritmes cardíacs susceptibles de ser patològics. En conseqüència, és indispensable dissenyar i implementar algorismes precisos adequats per a dispositius mòbils o portàtils capaços de detectar diferents afeccions cardíaques en registres de ECG.
Respecte les afeccions cardíaques menys comunes com el cas de la MCA, és necessari incrementar la sensibilitat en la detecció durant els cribratges intra-familiars realitzats després d'una MSC. Per a això, seria possible explorar biomarcadors propis a aquesta malaltia obtinguts mitjançant tècniques de processament de senyals ECG, a més de models de classificació que facen ús d'ells, contribuint així a reduir el nombre de casos de mort sobtada.
Sobre la base del descrit anteriorment, la present tesi estudia les possibilitats de diagnòstic basades en tècniques d'aprenentatge i classificació automàtica en dos escenaris principals. El primer aborda la detecció de la FA, així com un ampli ventall d'altres patologies cardíaques comunes, on proposem i validem diferents models de classificació de baix consum computacional. Tot això, utilitzant extenses bases de dades d'accés obert, i fent èmfasi en enfocaments de derivació única, ja que són els més utilitzats en dispositius mòbils i intel·ligents. El segon escenari se centra en la detecció de MCA mitjançant les 12 derivacions estàndard de l'ECG, on proposem i validem nous biomarcadors i models de classificació que tracten d'incrementar la sensibilitat dels cribratges intra-familiars realitzats després d'una MSC. Per a això, utilitzem una base de dades específica de la Unitat de Cardiopaties Familiars de l'Hospital Universitari i Politècnic La Fe de València. / [EN] Cardiovascular diseases are one of the leading causes of mortality and morbidity worldwide. Atrial Fibrillation (AF) stands out among adults' most common arrhythmias, presenting a very significant growth trend, especially in the elderly population or those with obesity disorders. At the other extreme, we find Arrhythmogenic Cardiomyopathy (ACM), a rare disease with a prevalence of 1:2000-5000 but great affectation among direct relatives, causing sudden cardiac death (SCD), and with a complicated clinical diagnosis. Beyond AF or ACM, there is a wide variety of pathologies derived from dysfunctions in the activation or electrical conduction of the heart.
For all of them, the electrocardiogram (ECG) continues to appear as the first and foremost clinical diagnostic technique, being a fundamental tool for screening and detecting pathologies that is relatively cheap and widely accessible. However, accurate diagnosis based on ECG interpretation requires experienced physicians, as this task consumes resources, time and is subject to variability between observers.
For the most common cardiac conditions, achieving a reliable diagnosis automatically, using either 12 or a smaller or single number of leads, remains a challenge. This aspect is especially relevant with the increasingly widespread use of portable or wearable devices, which are gaining significant interest for the early and preventive detection of heart disease, typically recording a reduced number of ECG leads. Such massive use gives them great potential to facilitate screening and monitoring different conditions in different scenarios, despite registering signals of lower quality compared to equipment certified for clinical use. The main challenge with these devices is finding the right balance between sensitivity and specificity in detecting pathologic heart rhythms. Consequently, designing and implementing accurate algorithms suitable for mobile or portable devices capable of detecting different cardiac conditions in ECG recordings is essential.
Concerning less common cardiac conditions such as the case of ACM, it is necessary to increase the sensitivity in detection during intra-family screenings carried out after an SCD. Hence, it would be possible to explore specific biomarkers to this disease obtained through ECG signal processing techniques, as well as classification models that use them, thus contributing to reduce the number of cases of sudden death.
Based on the previously described, this thesis studies the diagnostic possibilities based on machine learning and classification techniques in two main scenarios. The first deals with detecting AF and a wide range of other common cardiac pathologies, where we propose and validate different classification models with low computational consumption. All this, using extensive open access databases, and emphasizing single-lead approaches, since they are the most used in mobile and smart devices. The second scenario focuses on detecting ACM using the standard 12-lead ECG, where we propose and validate new biomarkers and classification models that try to increase the sensitivity of intra-family screenings carried out after an MSC. For this task, we used a specific database of the Familial Cardiopathies Unit of the Hospital Universitario y Politécnico La Fe de València. / Jiménez Serrano, S. (2023). Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECG [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196826
|
154 |
Design and assessment of a computer-assisted artificial intelligence system for predicting preterm labor in women attending regular check-ups. Emphasis in imbalance data learning techniqueNieto del Amor, Félix 18 December 2023 (has links)
Tesis por compendio / [ES] El parto prematuro, definido como el nacimiento antes de las 37 semanas de gestación, es una importante preocupación mundial con implicaciones para la salud de los recién nacidos y los costes económicos. Afecta aproximadamente al 11% de todos los nacimientos, lo que supone más de 15 millones de individuos en todo el mundo. Los métodos actuales para predecir el parto prematuro carecen de precisión, lo que conduce a un sobrediagnóstico y a una viabilidad limitada en entornos clínicos. La electrohisterografía (EHG) ha surgido como una alternativa prometedora al proporcionar información relevante sobre la electrofisiología uterina. Sin embargo, los sistemas de predicción anteriores basados en EHG no se han trasladado de forma efectiva a la práctica clínica, debido principalmente a los sesgos en el manejo de datos desbalanceados y a la necesidad de modelos de predicción robustos y generalizables.
Esta tesis doctoral pretende desarrollar un sistema de predicción del parto prematuro basado en inteligencia artificial utilizando EHG y datos obstétricos de mujeres sometidas a controles prenatales regulares. Este sistema implica la extracción de características relevantes, la optimización del subespacio de características y la evaluación de estrategias para abordar el reto de los datos desbalanceados para una predicción robusta.
El estudio valida la eficacia de las características temporales, espectrales y no lineales para distinguir entre casos de parto prematuro y a término. Las nuevas medidas de entropía, en concreto la dispersión y la entropía de burbuja, superan a las métricas de entropía tradicionales en la identificación del parto prematuro. Además, el estudio trata de maximizar la información complementaria al tiempo que minimiza la redundancia y las características de ruido para optimizar el subespacio de características para una predicción precisa del parto prematuro mediante un algoritmo genético.
Además, se ha confirmado la fuga de información entre el conjunto de datos de entrenamiento y el de prueba al generar muestras sintéticas antes de la partición de datos, lo que da lugar a una capacidad de generalización sobreestimada del sistema predictor. Estos resultados subrayan la importancia de particionar y después remuestrear para garantizar la independencia de los datos entre las muestras de entrenamiento y de prueba. Se propone combinar el algoritmo genético y el remuestreo en la misma iteración para hacer frente al desequilibrio en el aprendizaje de los datos mediante el enfoque de particio'n-remuestreo, logrando un área bajo la curva ROC del 94% y una precisión media del 84%. Además, el modelo demuestra un F1-score y una sensibilidad de aproximadamente el 80%, superando a los estudios existentes que consideran el enfoque de remuestreo después de particionar. Esto revela el potencial de un sistema de predicción de parto prematuro basado en EHG, permitiendo estrategias orientadas al paciente para mejorar la prevención del parto prematuro, el bienestar materno-fetal y la gestión óptima de los recursos hospitalarios.
En general, esta tesis doctoral proporciona a los clínicos herramientas valiosas para la toma de decisiones en escenarios de riesgo materno-fetal de parto prematuro. Permite a los clínicos diseñar estrategias orientadas al paciente para mejorar la prevención y el manejo del parto prematuro. La metodología propuesta es prometedora para el desarrollo de un sistema integrado de predicción del parto prematuro que pueda mejorar la planificación del embarazo, optimizar la asignación de recursos y reducir el riesgo de parto prematuro. / [CA] El part prematur, definit com el naixement abans de les 37 setmanes de gestacio', e's una important preocupacio' mundial amb implicacions per a la salut dels nounats i els costos econo¿mics. Afecta aproximadament a l'11% de tots els naixements, la qual cosa suposa me's de 15 milions d'individus a tot el mo'n. Els me¿todes actuals per a predir el part prematur manquen de precisio', la qual cosa condueix a un sobrediagno¿stic i a una viabilitat limitada en entorns cl¿'nics. La electrohisterografia (EHG) ha sorgit com una alternativa prometedora en proporcionar informacio' rellevant sobre l'electrofisiologia uterina. No obstant aixo¿, els sistemes de prediccio' anteriors basats en EHG no s'han traslladat de manera efectiva a la pra¿ctica cl¿'nica, degut principalment als biaixos en el maneig de dades desequilibrades i a la necessitat de models de prediccio' robustos i generalitzables.
Aquesta tesi doctoral prete'n desenvolupar un sistema de prediccio' del part prematur basat en intel·lige¿ncia artificial utilitzant EHG i dades obste¿triques de dones sotmeses a controls prenatals regulars. Aquest sistema implica l'extraccio' de caracter¿'stiques rellevants, l'optimitzacio' del subespai de caracter¿'stiques i l'avaluacio' d'estrate¿gies per a abordar el repte de les dades desequilibrades per a una prediccio' robusta.
L'estudi valguda l'efica¿cia de les caracter¿'stiques temporals, espectrals i no lineals per a distingir entre casos de part prematur i a terme. Les noves mesures d'entropia, en concret la dispersio' i l'entropia de bambolla, superen a les me¿triques d'entropia tradicionals en la identificacio' del part prematur. A me's, l'estudi tracta de maximitzar la informacio' complementa¿ria al mateix temps que minimitza la redunda¿ncia i les caracter¿'stiques de soroll per a optimitzar el subespai de caracter¿'stiques per a una prediccio' precisa del part prematur mitjan¿cant un algorisme gene¿tic.
A me's, hem confirmat la fugida d'informacio' entre el conjunt de dades d'entrenament i el de prova en generar mostres sinte¿tiques abans de la particio' de dades, la qual cosa dona lloc a una capacitat de generalitzacio' sobreestimada del sistema predictor. Aquests resultats subratllen la importa¿ncia de particionar i despre's remostrejar per a garantir la independe¿ncia de les dades entre les mostres d'entrenament i de prova. Proposem combinar l'algorisme gene¿tic i el remostreig en la mateixa iteracio' per a fer front al desequilibri en l'aprenentatge de les dades mitjan¿cant l'enfocament de particio'-remostrege, aconseguint una a¿rea sota la corba ROC del 94% i una precisio' mitjana del 84%. A me's, el model demostra una puntuacio' F1 i una sensibilitat d'aproximadament el 80%, superant als estudis existents que consideren l'enfocament de remostreig despre's de particionar. Aixo¿ revela el potencial d'un sistema de prediccio' de part prematur basat en EHG, permetent estrate¿gies orientades al pacient per a millorar la prevencio' del part prematur, el benestar matern-fetal i la gestio' o¿ptima dels recursos hospitalaris.
En general, aquesta tesi doctoral proporciona als cl¿'nics eines valuoses per a la presa de decisions en escenaris de risc matern-fetal de part prematur. Permet als cl¿'nics dissenyar estrate¿gies orientades al pacient per a millorar la prevencio' i el maneig del part prematur. La metodologia proposada e's prometedora per al desenvolupament d'un sistema integrat de prediccio' del part prematur que puga millorar la planificacio' de l'embara¿s, optimitzar l'assignacio' de recursos i millorar la qualitat de l'atencio'. / [EN] Preterm delivery, defined as birth before 37 weeks of gestation, is a significant global concern with implications for the health of newborns and economic costs. It affects approximately 11% of all births, amounting to more than 15 million individuals worldwide. Current methods for predicting preterm labor lack precision, leading to overdiagnosis and limited practicality in clinical settings. Electrohysterography (EHG) has emerged as a promising alternative by providing relevant information about uterine electrophysiology. However, previous prediction systems based on EHG have not effectively translated into clinical practice, primarily due to biases in handling imbalanced data and the need for robust and generalizable prediction models.
This doctoral thesis aims to develop an artificial intelligence based preterm labor prediction system using EHG and obstetric data from women undergoing regular prenatal check-ups. This system entails extracting relevant features, optimizing the feature subspace, and evaluating strategies to address the imbalanced data challenge for robust prediction.
The study validates the effectiveness of temporal, spectral, and non-linear features in distinguishing between preterm and term labor cases. Novel entropy measures, namely dispersion and bubble entropy, outperform traditional entropy metrics in identifying preterm labor. Additionally, the study seeks to maximize complementary information while minimizing redundancy and noise features to optimize the feature subspace for accurate preterm delivery prediction by a genetic algorithm.
Furthermore, we have confirmed leakage information between train and test data set when generating synthetic samples before data partitioning giving rise to an overestimated generalization capability of the predictor system. These results emphasize the importance of using partitioning-resampling techniques for ensuring data independence between train and test samples. We propose to combine genetic algorithm and resampling method at the same iteration to deal with imbalanced data learning using partition-resampling pipeline, achieving an Area Under the ROC Curve of 94% and Average Precision of 84%. Moreover, the model demonstrates an F1-score and recall of approximately 80%, outperforming existing studies on partition-resampling pipeline.
This finding reveals the potential of an EHG-based preterm birth prediction system, enabling patient-oriented strategies for enhanced preterm labor prevention, maternal-fetal well-being, and optimal hospital resource management.
Overall, this doctoral thesis provides clinicians with valuable tools for decision-making in preterm labor maternal-fetal risk scenarios. It enables clinicians to design a patient-oriented strategies for enhanced preterm birth prevention and management. The proposed methodology holds promise for the development of an integrated preterm birth prediction system that can enhance pregnancy planning, optimize resource allocation, and ultimately improve the outcomes for both mother and baby. / Nieto Del Amor, F. (2023). Design and assessment of a computer-assisted artificial intelligence system for predicting preterm labor in women attending regular check-ups. Emphasis in imbalance data learning technique [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/200900 / Compendio
|
155 |
Sistema de compensación mediante filtro activo de potencia con sistema de obtención de las corrientes de referencia selectivo utilizando control 3D-3B SVPWM de la etapa de potencia. Aplicación a sistemas industriales a 4 hilosOrts Grau, Salvador 15 December 2008 (has links)
Esta tesis doctoral trata acerca de los sistemas de compensación activos de conexión en paralelo utilizados para la mejora de la calidad del suministro eléctrico, y de la eficiencia energética en las redes eléctricas de distribución y en las instalaciones, a cuatro hilos. En la presente tesis se desarrolla un nuevo filtro o compensador activo de potencia con la capacidad de seleccionar los fenómenos a compensar, incluyéndose además algunas propuestas que, aplicadas a estos sistemas de compensación, permiten mejorar las prestaciones finales obtenidas.
Se presentan las estrategias de compensación global más utilizadas en compensadores activos y se propone un método de compensación global basado en la norma IEEE Std. 1459-2000. Se realiza un estudio comparativo de las diferentes estrategias de compensación global.
Para la obtención de un compensador selectivo, se proponen dos métodos diferentes para la descomposición de las corrientes de carga y la obtención de las corrientes de compensación. El primer método está basado en la utilización de las conductancias por fase y la conductancia equivalente del sistema trifásico. El segundo se basa en la descomposición de potencias propuesta en la IEEE Std. 1459-2000. Se presenta un análisis de cada uno de los métodos propuestos.
Se presenta el análisis del sistema completo para la implementación del compensador selectivo propuesto. El sistema de control incluye, la utilización de la técnica de la ventana deslizante para la obtención de las corrientes de referencia, el desarrollo de un regulador de corriente de bajo coste computacional, el diseño del regulador para el control del bus dc y el desarrollo de un nuevo modulador vectorial tridimensional 3D-3B SVPWM.
Finalmente, se presentan los resultados de simulación y experimentales del sistema de compensación diseñado, para diferentes tipos de cargas y condiciones de alimentación. Parte de estos resultados han sido presentados, entre otras, en las siguientes publicaciones:
" S. O / Orts Grau, S. (2008). Sistema de compensación mediante filtro activo de potencia con sistema de obtención de las corrientes de referencia selectivo utilizando control 3D-3B SVPWM de la etapa de potencia. Aplicación a sistemas industriales a 4 hilos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3797
|
156 |
Instrumental techniques for improving the measurements based on Quartz Crystal Microbalances (Técnicas instrumentales para mejorar las mediciones con microbalanzas de cuarzo)Torres Villa, Robinsón Alberto 01 October 2012 (has links)
L'Electrogravimetria AC empra una microbalança de quars electroquímica (EQCM) en règim dinàmic. En l'EQCM un dels elèctrodes d'or depositats sobre el cristall és recobert amb una fina pelolícula d'un polímer electroactiv i és emprat com a elèctrode de treball (WE) dins d'una celola electroquímica. Les variacions de la freqüència de ressonància de la microbalança de quars (QCM) permeten obtindre la resposta massa associada amb la transferència de càrrega que es dóna en la interfície polímer-electròlit. L'Electrogravimetria AC va ser proposta a fi de caracteritzar i separadament identificar el moviment dels ions i el solvent en la interfície polímer-electròlit. En esta tècnica s'analitza en el domine de la freqüència la resposta de massa davant de xicotetes pertorbacions de voltatge gràcies a l'ocupació de la microbalança de quars en règim dinàmic. Per a este propòsit s'aplica una xicoteta pertorbació sinusoidal superposada a una tensió contínua, entre l'elèctrode de referència i l'elèctrode de treball de la celola. Posteriorment, es pot dibuixar la funció de transferència electrogravimètrica (EGTF), definida esta com la raó (?m/?E) entre l'amplitud dels canvis de massa induïts (?m) i l'amplitud de la pertorbació sinusoïdal aplicada (?E). Esta funció de transferència se dibuixa en un pla complex per a cada una de les freqüències de la senyal de pertorbació. Les distintes espècies iònicas involucrades són identificades en el pla complex per mitjà de bucles característics sempre que els bucles no se superposen.
Per mitjà d'esta tesi doctoral es proposa un nou sistema de conversió de freqüència-tensió basat en un doble ajust de freqüència implementat amb un PLL mesclant elements analògics i digitals (AD PLL). Els resultats trobats tant en la caracterització electrònica del dispositiu com en la fase experimental proven la fiabilitat del sistema per als mesuraments realitzats en la tècnica d'Electrogravimetria AC. / Torres Villa, RA. (2007). Instrumental techniques for improving the measurements based on Quartz Crystal Microbalances (Técnicas instrumentales para mejorar las mediciones con microbalanzas de cuarzo) [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17323
|
157 |
Diseño y caracterización de metamateriales acústicos basados en guías de ondaGraciá Salgado, Rogelio 14 July 2014 (has links)
En la realización de este trabajo se obtendrán las expresiones analíticas que permiten describir las propiedades acústicas de una red de elementos dispersivos en el interior de una guía de ondas, permitiendo así, obtener en el límite de homogenización los parámetros efectivos que caracterizan al metamaterial y la verificación experimental de las propiedades acústicas del metamaterial.
Matemáticamente este problema se tratará con la teoría de la dispersión múltiple, ya que las geometrías a tratar en este trabajo van a ser cilíndricas y dicha teoría se ha demostrado ser la mas efectiva para esos casos y usando la técnica de ¿mode matching ¿para la resolución general del problema de la dispersión de campo acústico en el interior de una guía de ondas. / Graciá Salgado, R. (2014). Diseño y caracterización de metamateriales acústicos basados en guías de onda [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/38759
|
158 |
Contribution to the improvement of electrical therapies and to the comprehension of electrophysiological mechanisms in heart failure and acute ischemia using computational simulationCarpio Garay, Edison Fernando 02 March 2021 (has links)
[ES] Una mejor comprensión de los mecanismos subyacentes a las arritmias ventriculares, así como una mejora de las terapias eléctricas y farmacológicas asociadas, son un factor clave para prevenir la muerte súbita cardíaca en pacientes con cardiopatías estructurales y eléctricas. Una miocardiopatía importante que puede provocar arritmias ventriculares potencialmente mortales es la insuficiencia cardíaca (HF). Los pacientes con HF a menudo sufren también de bloqueo de rama izquierda (LBBB) que deteriora su condición. Actualmente, el tratamiento más eficaz para estos pacientes es la terapia de resincronización cardíaca (CRT). Sin embargo, no se alcanza una respuesta positiva en todos los casos, por lo que es necesario un mayor estudio para mejorar este tratamiento. Una segunda patología cardíaca que también produce arritmias letales es la isquemia miocárdica. Evidencia experimental ha demostrado que las alteraciones electrofisiológicas en el miocardio ventricular constituyen un sustrato para la generación de arritmias durante la fase aguda de isquemia. Estas alteraciones son inducidas por los tres componentes isquémicos principales: hipercalemia, hipoxia y acidosis. Sin embargo, la influencia de cada componente en los mecanismos de inicio y mantenimiento de las arritmias no se comprende aún con claridad. Una primera parte de esta tesis doctoral, se centra en la optimización de la CRT durante su aplicación en un corazón que padece HF y LBBB. Para esto, se modificó el modelo de potencial de acción (AP) de O'Hara para simular una velocidad de conducción realista tanto en condiciones sanas como patológicas. Además, se estimó e incorporó un sistema de His-Purkinje (HPS) dentro de un modelo biventricular/torso humano 3D para simular un LBBB realista. A continuación, se desarrolló un conjunto de simulaciones computacionales para diferentes configuraciones de la CRT a fin de determinar la posición y el instante de estimulación óptimo que conducen a la duración más corta del QRS. Posteriormente, los resultados se compararon con otros criterios de optimización. Los principales hallazgos de este estudio mostraron la necesidad de definir criterios de optimización mejores o complementarios, como un índice basado en el tiempo hasta alcanzar el 90% del área del QRS sugerido en este trabajo, para alcanzar la mejor sincronía eléctrica ventricular durante la aplicación de la CRT. Además, nuestros resultados también muestran que el septo superior cercano al tracto de salida es un sitio alternativo para la estimulación del ventrículo derecho, lo cual evita los problemas de perforación de la pared apical durante el procedimiento típico de la CRT. Por último, para obtener mejores resultados de la CRT se deben considerar protocolos de estimulación endocárdica en el ventrículo izquierdo. En la segunda parte de esta tesis se investigó los efectos de los tres componentes principales de la isquemia sobre la vulnerabilidad a una reentrada, así como el papel del HPS y sus mecanismos de acción en la generación y mantenimiento de arritmias ventriculares. Para lograr este objetivo, en primer lugar, se modificó el modelo AP ventricular para simular de forma realista las principales alteraciones provocadas por la isquemia miocárdica aguda. Las simulaciones se realizaron en un modelo biventricular humano 3D, acoplado en un torso virtual, que incluye una geometría realista de las zonas isquémicas central y de borde, así como un HPS detallado. Se simularon cuatro escenarios de severidad isquémica correspondientes a diferentes minutos de oclusión de la arteria coronaria para evaluar los efectos de la evolución de la isquemia en el tiempo. Luego, se evaluó la influencia individual de la hipercalemia, hipoxia y acidosis en el ancho de la ventana vulnerable (VW) a reentradas durante siete escenarios de isquemia aguda. Finalmente, se repitió este último conjunto de simulaciones isquémicas utilizando el modelo anatómico sin el HPS para evaluar el efecto de este último en la VW. Los resultados muestran que una condición isquémica moderada es el peor escenario para la generación de una reentrada. La hipoxia es el componente isquémico con el efecto más significativo en el ancho de la VW. Además, el flujo de corriente retrógrado desde el miocardio hacia el HPS en la región isquémica, los bloqueos de conducción en secciones discretas del HPS y el grado de hiperkalemia que afecta a las células de Purkinje, son sugeridos como mecanismos que podrían favorecer la aparición de arritmias ventriculares. / [EN] A better understanding of the mechanisms underlying ventricular arrhythmias, as well as an improvement of the associated electrical and pharmacological therapies, are a key factor to prevent sudden cardiac death in patients with structural and electrical heart diseases. An important cardiomyopathy that can lead to life-threatening ventricular arrhythmias is heart failure (HF). Patients with HF also often suffer from left bundle branch block (LBBB), which worsens their condition. Currently, the most effective treatment to these patients is cardiac resynchronization therapy (CRT). However, many patients are non-responders, so further studies are needed to improve this treatment. A second cardiac pathology that also produces lethal arrhythmias is myocardial ischemia. Substantial experimental evidence has shown that electrophysiological alterations in the ventricular myocardium constitute a substrate for the generation of arrhythmias during the acute phase of ischemia. These alterations are induced by the three main ischemic components: hyperkalemia, hypoxia and acidosis. However, the influence of each component in the mechanisms of arrhythmia initiation and maintenance is still not completely understood. In the first section of this doctoral thesis, we focus on the optimization of CRT during its application in a heart suffering from HF and LBBB. For this purpose, we modified the O'Hara action potential (AP) model to simulate a realistic conduction velocity both in healthy and pathological conditions. In addition, a His-Purkinje system (HPS) was generated and incorporated into a 3D human biventricular/torso model to simulate realistic LBBB. A set of computational simulations were performed for different CRT configurations to determine the optimal pacing leads location and delay values leading to the shortest QRS duration. Subsequently, results were compared with other optimization criteria. The main findings of this study showed the need of better or complementary optimization criteria, such as an index based on the time to reach the 90% of the QRS area suggested in this work, to reach the best ventricular electrical synchrony during the CRT application. In addition, our results also show that the upper septum close to the outflow tract is an alternative site for the right ventricle (RV) stimulation, which avoids the perforation problems of the RV apical wall during the typical CRT procedure. Finally, protocols of left ventricle endocardial pacing should be considered to obtain better CRT results. In the second section of this thesis, we investigated the effects of the three main components of ischemia on the vulnerability to reentry, as well as the role of the HPS and its mechanisms of action in the generation and maintenance of ventricular arrhythmias. In order to achieve our goal, we first modified the ventricular AP model to realistically simulate the major alterations caused by acute myocardial ischemia. Simulations were performed in a 3D human biventricular model, embedded in a virtual torso, which includes a realistic geometry of the central and border ischemic zones, as well as a detailed HPS. Four scenarios of ischemic severity corresponding to different minutes after coronary artery occlusion were simulated to evaluate the effects of the evolution of ischemia over time. Then, the individual influence of hyperkalemia, hypoxia and acidosis in the width of the vulnerable window (VW) for reentry was assessed during seven scenarios of acute ischemia. Finally, this last set of ischemic simulations was repeated using the anatomical model without the HPS to evaluate the effect of the latter in the VW. Results show that a moderate ischemic condition is the worst scenario for reentry generation. Hypoxia is the ischemic component with the most significant effect on the width of the VW. Furthermore, the retrograde current flow from the myocardium to the HPS in the ischemic region, conduction blocks in discrete sections of the HPS, and the degree of hyperkalemia affecting the Purkinje cells, are suggested as HPS mechanisms that could favor the triggering of ventricular arrhythmias. / [CA] Una millor comprensió dels mecanismes subjacents a les arrítmies ventriculars, així com una millora de les teràpies elèctriques i farmacològiques associades, són un factor clau per a previndre la mort sobtada cardíaca en pacients amb cardiopaties estructurals i elèctriques. Una miocardiopatia important que pot provocar arrítmies ventriculars potencialment mortals és la insuficiència cardíaca (HF). Els pacients amb HF sovint pateixen també de bloqueig de branca esquerra (LBBB) que deteriora la seua condició. Actualment, el tractament més eficaç per a aquests pacients és la teràpia de resincronització cardíaca (CRT). No obstant això, no s'aconsegueix una resposta positiva en tots els casos, per la qual cosa és necessari un major estudi per a millorar aquest tractament. Una segona patologia cardíaca que també produeix arrítmies letals és la isquèmia miocàrdica. Evidència experimental ha demostrat que les alteracions electrofisiològiques en el miocardi ventricular constitueixen un substrat per a la generació d'arrítmies durant la fase aguda d'isquèmia. Aquestes alteracions són induïdes pels tres components isquèmics principals: hipercalèmia, hipòxia i acidosi. No obstant això, la influència de cada component en els mecanismes d'inici i manteniment de les arrítmies no es comprén encara amb claredat. Una primera part d'aquesta tesi doctoral, se centra en l'optimització de la CRT durant la seua aplicació en un cor que pateix HF i LBBB. Per a això, es va modificar el model de potencial d'acció (AP) de O'Hara per a simular una velocitat de conducció realista tant en condicions sanes com patològiques. A més, es va estimar i es va incorporar un sistema de His-Purkinje (HPS) dins d'un model biventricular/tors humà 3D per a simular un LBBB realista. A continuació, es va desenvolupar un conjunt de simulacions computacionals per a diferents configuracions de la CRT a fi de determinar la posició i l'instant d'estimulació òptim que condueixen a la duració més curta del QRS. Posteriorment, els resultats es van comparar amb altres criteris d'optimització. Les principals troballes d'aquest estudi van mostrar la necessitat de definir millors o complementaris criteris d'optimització, com un índex basat en el temps fins a aconseguir el 90% de l'àrea del QRS suggerida en aquest treball, per a aconseguir la millor sincronia elèctrica ventricular durant l'aplicació de la CRT. A més, els nostres resultats també mostren que el septe superior pròxim al tracte d'eixida és un lloc alternatiu per a l'estimulació del ventricle dret, la cual cosa evita els problemes de perforació de la paret apical durant el procediment típic de la CRT. Finalment, per a obtindre millors resultats de la CRT s'han de considerar protocols d'estimulació endocárdica en el ventricle esquerre. En la segona part d'aquesta tesi es va investigar els efectes dels tres components principals de la isquèmia sobre la vulnerabilitat a una reentrada, així com el paper del HPS i els seus mecanismes d'acció en la generació i manteniment d'arrítmies ventriculars. Per a aconseguir aquest objectiu, en primer lloc es va modificar el model AP ventricular per a simular de manera realista les principals alteracions provocades per la isquèmia miocàrdica aguda. Les simulacions es van realitzar en un model biventricular humà 3D, acoblat en un tors virtual, que inclou una geometria realista de les zones isquèmiques central i de vora, així com un HPS detallat. Es van simular quatre escenaris de severitat isquèmica corresponents a diferents minuts d'oclusió de l'artèria coronària per a avaluar els efectes de l'evolució de la isquèmia en el temps. Després, es va avaluar la influència individual de la hipercalèmia, hipòxia i acidosi en l'ample de la finestra vulnerable (VW) a reentradas durant set escenaris d'isquèmia aguda. Finalment, es va repetir aquest últim conjunt de simulacions isquèmiques utilitzant el model anatòmic sense el HPS per a avaluar l'efecte d'aquest últim en la VW. Els resultats mostren que una condició isquèmica moderada és el pitjor escenari per a la generació d'una reentrada. La hipòxia és el component isquèmic amb l'efecte més significatiu en l'ample de la VW. A més, el flux de corrent retrògrad des del miocardi cap al HPS a la regió isquèmica, els bloquejos de conducció en seccions discretes del HPS i el grau d'hiperkalèmia que afecta les cèl·lules de Purkinje, són suggerits com a mecanismes que podrien afavorir l'aparició d'arrítmies ventriculars. / Carpio Garay, EF. (2021). Contribution to the improvement of electrical therapies and to the comprehension of electrophysiological mechanisms in heart failure and acute ischemia using computational simulation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/163041
|
159 |
Prediction of the effects of drugs on cardiac activity using computer simulationsCano García, Jordi 22 March 2021 (has links)
[ES] Las enfermedades cardiovasculares siguen siendo la principal causa de muerte en Europa. Las arritmias cardíacas son una causa importante de muerte súbita, pero sus mecanismos son complejos. Esto denota la importancia de su estudio y prevención. La investigación sobre electrofisiología cardíaca ha demostrado que las anomalías eléctricas causadas por mutaciones que afectan a canales cardíacos pueden desencadenar arritmias. Sorprendentemente, se ha descubierto una gran variedad de fármacos proarrítmicos, incluidos aquellos que usamos para prevenirlas. Las indicaciones de uso de fármacos actuales intentaron solucionar este problema diseñando una prueba para identificar aquellos fármacos que podían ser peligrosos basado en el bloqueo de un solo canal iónico. El estudio de las interacciones fármaco-canal ha revelado la existencia no sólo de compuestos que bloquean múltiples canales, sino también una gran complejidad en esas interacciones. Esto podría explicar por qué algunos medicamentos pueden mostrar efectos muy diferentes en la misma enfermedad. Existen dos desafíos importantes con respecto a los efectos de los fármacos en la electrofisiología cardíaca. Por un lado, las empresas y entidades reguladoras están buscando una herramienta de alto rendimiento que mejore la detección del potencial proarrítmico durante el desarrollo de fármacos. Por otro lado, los pacientes con anomalías eléctricas a menudo requieren tratamientos personalizados más seguros. Las simulaciones computacionales contienen un poder sin precedentes para abordar fenómenos biofísicos complejos. Deberían ser de utilidad a la hora de determinar las características que definen tanto los efectos beneficiosos como no deseados de los fármacos mediante la reproducción de datos experimentales y clínicos.
En esta tesis doctoral, se han utilizado modelos computacionales y simulaciones para dar respuesta a estos dos desafíos. El estudio de los efectos de los fármacos sobre la actividad cardíaca se dividió en el estudio de su seguridad y de su eficacia, respectivamente. Para dar respuesta al primer desafío, se adoptó un enfoque más amplio y se generó un nuevo biomarcador fácil de usar para la clasificación del potencial proarrítmico de los fármacos utilizando modelos del potencial de acción de células y tejidos cardíacos humanos. Se integró el bloqueo de múltiples canales a través de IC50 y el uso de concentraciones terapéuticas con el fin de mejorar el poder predictivo. Luego, se entrenó el biomarcador cuantificando el potencial proarrítmico de 84 fármacos. Los resultados obtenidos sugieren que el biomarcador podría usarse para probar el potencial proarrítmico de nuevos fármacos. Respecto al segundo desafío, se adoptó un enfoque más específico y se buscó mejorar la terapia de pacientes con anomalías eléctricas cardíacas. Por lo tanto, se creó un modelo detallado de la mutación V411M del canal de sodio, causante del síndrome de QT largo, reproduciendo datos clínicos y experimentales. Se evaluaron los posibles efectos beneficiosos de ranolazina, a la par que se aportó información sobre los mecanismos que impulsan la efectividad de la flecainida. Los resultados obtenidos sugieren que, si bien ambos fármacos mostraron diferentes mecanismos de bloqueo de los canales de sodio, un tratamiento con ranolazina podría ser beneficioso en estos pacientes. / [CA] Les malalties cardiovasculars continuen sent la principal causa de mort a Europa. Les arrítmies cardíaques són una causa important de mort sobtada, però els seus mecanismes són complexos. Això denota la importància del seu estudi i prevenció. La investigació sobre electrofisiologia cardíaca ha demostrat que les anomalies elèctriques que afecten a canals cardiacs poden desencadenar arrítmies. Sorprenentment, s'ha descobert una gran varietat de fàrmacs proarrítmics, inclosos aquells que utilitzem per a previndre-les. Les indicacions d'ús de fàrmacs actuals van intentar solucionar aquest problema dissenyant una prova per a identificar aquells fàrmacs que podien ser perillosos basada en el bloqueig d'un sol canal iònic. L'estudi de les interaccions fàrmac-canal ha revelat l'existència no sols de compostos que bloquegen múltiples canals, sinó també una gran complexitat en aquestes interaccions. Això podria explicar per què alguns medicaments poden mostrar efectes molt diferents en la mateixa malaltia. Existeixen dos desafiaments importants respecte als efectes dels fàrmacs en la electrofisiologia cardíaca. D'una banda, les empreses i entitats reguladores estan buscant una eina d'alt rendiment que millore la detecció del potencial proarrítmic durant el desenvolupament de fàrmacs. D'altra banda, els pacients amb anomalies elèctriques sovint requereixen tractaments personalitzats més segurs. Les simulacions computacionals contenen un poder sense precedents per a abordar fenòmens biofísics complexos. Haurien de ser d'utilitat a l'hora de determinar les característiques que defineixen tant els efectes beneficiosos com no desitjats dels fàrmacs mitjançant la reproducció de dades experimentals i clíniques.
En aquesta tesi doctoral, s'han utilitzat models computacionals i simulacions per a donar resposta a aquests dos desafiaments. L'estudi dels efectes dels fàrmacs sobre l'activitat cardíaca es va dividir en l'estudi de la seva seguretat i la seva eficacia. Per a donar resposta al primer desafiament, es va adoptar un enfocament més ampli i es va generar un nou biomarcador fàcil d'usar per a la classificació del potencial proarrítmic dels fàrmacs utilitzant models del potencial d'acció de cèl·lules i teixits cardíacs humans. Es va integrar el bloqueig de múltiples canals a través d'IC50 i l'ús de concentracions terapèutiques amb la finalitat de millorar el poder predictiu. Després, es va entrenar el biomarcador quantificant el potencial proarrítmic de 84 fàrmacs. Els resultats obtinguts suggereixen que el biomarcador podria usar-se per a provar el potencial proarrítmic de nous fàrmacs. Respecte al segon desafiament, es va adoptar un enfocament més específic i es va buscar millorar la teràpia de pacients amb anomalies elèctriques cardíaques. Per tant, es va crear un model detallat de la mutació V411M del canal de sodi, causant de la síndrome de QT llarg, reproduint dades clíniques i experimentals. Es van avaluar els possibles efectes beneficiosos de ranolazina, a l'una que es va aportar informació sobre els mecanismes que impulsen l'efectivitat de la flecainida. Els resultats obtinguts suggereixen que, si bé tots dos fàrmacs van mostrar diferents mecanismes de bloqueig dels canals de sodi, un tractament amb ranolazina podria ser beneficiós en aquests pacients. / [EN] Cardiovascular disease remains the main cause of death in Europe. Cardiac arrhythmias are an important cause of sudden death, but their mechanisms are complex. This denotes the importance of their study and prevention. Research on cardiac electrophysiology has shown that electrical abnormalities caused by mutations in cardiac channels can trigger arrhythmias. Surprisingly, a wide variety of drugs have also shown proarrhythmic potential, including those that we use to prevent arrhythmia. Current guidelines designed a test to identify dangerous drugs by assessing their blocking power on a single ion channel to address this situation. Study of drug-channel interactions has revealed not only compounds that block multiple channels but also a great complexity in those interactions. This could explain why similar drugs can show vastly different effects in some diseases. There are two important challenges regarding the effects of drugs on cardiac electrophysiology. On the one hand, companies and regulators are in search of a high throughput tool that improves proarrhythmic potential detection during drug development. On the other hand, patients with electrical abnormalities often require safer personalized treatments owing to their condition. Computer simulations provide an unprecedented power to tackle complex biophysical phenomena. They should prove useful determining the characteristics that define the drugs' beneficial and unwanted effects by reproducing experimental and clinical observations.
In this PhD thesis, we used computational models and simulations to address the two abovementioned challenges. We split the study of drug effects on the cardiac activity into the study of their safety and efficacy, respectively. For the former, we took a wider approach and generated a new easy-to-use biomarker for proarrhythmic potential classification using cardiac cell and tissue human action potential models. We integrated multiple channel block through IC50s and therapeutic concentrations to improve its predictive power. Then, we quantified the proarrhythmic potential of 84 drugs to train the biomarker. Our results suggest that it could be used to test the proarrhythmic potential of new drugs. For the second challenge, we took a more specific approach and sought to improve the therapy of patients with cardiac electrical abnormalities. Therefore, we created a detailed model for the long QT syndrome-causing V411M mutation of the sodium channel reproducing clinical and experimental data. We tested the potential benefits of ranolazine, while giving insights into the mechanisms that drive flecainide's effectiveness. Our results suggest that while both drugs showed different mechanisms of sodium channel block, ranolazine could prove beneficial in these patients. / This PhD thesis was developed within the following projects: Ministerio de Economía y Competitividad and Fondo Europeo de Desarrollo Regional (FEDER) DPI2015-69125-R (MINECO/FEDER, UE): Simulación computacional para la predicción personalizada de los efectos de los fármacos sobre la actividad cardiaca. Dirección General de Política Científica de la Generalitat Valenciana (PROMETEU2016/088): “Modelos computacionales personalizados multiescala para la optimización del diagnóstico y tratamiento de arritmias cardiacas (personalised digital heart). Vicerrectorado de Investigación, Innovación y Transferencia de la Universitat Politècnica de València, Ayuda a Primeros Proyectos de Investigación (PAID-06-18), and by Memorial Nacho Barberá. Instituto de Salud Carlos III (La Fe Biobank PT17/0015/0043). / Cano García, J. (2021). Prediction of the effects of drugs on cardiac activity using computer simulations [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/164094
|
160 |
Development of Advanced Closed-Loop Brain Electrophysiology Systems for Freely Behaving RodentsCuevas López, Aarón 17 January 2022 (has links)
[ES] La electrofisiología extracelular es una técnica ampliamente usada en investigación neurocientífica, la cual estudia el funcionamiento del cerebro mediante la medición de campos eléctricos generados por la actividad neuronal. Esto se realiza a través de electrodos implantados en el cerebro y conectados a dispositivos electrónicos para amplificación y digitalización de las señales. De los muchos modelos animales usados en experimentación, las ratas y los ratones se encuentran entre las especies más comúnmente utilizadas.
Actualmente, la experimentación electrofisiológica busca condiciones cada vez más complejas, limitadas por la tecnología de los dispositivos de adquisición. Dos aspectos son de particular interés: Realimentación de lazo cerrado y comportamiento en condiciones naturales. En esta tesis se presentan desarrollos con el objetivo de mejorar diferentes facetas de estos dos problemas.
La realimentación en lazo cerrado se refiere a todas las técnicas en las que los estímulos son producidos en respuesta a un evento generado por el animal. La latencia debe ajustarse a las escalas temporales bajo estudio. Los sistemas modernos de adquisición presentan latencias en el orden de los 10ms. Sin embargo, para responder a eventos rápidos, como pueden ser los potenciales de acción, se requieren latencias por debajo de 1ms. Además, los algoritmos para detectar los eventos o generar los estímulos pueden ser complejos, integrando varias entradas de datos en tiempo real. Integrar el desarrollo de dichos algoritmos en las herramientas de adquisición forma parte del diseño experimental.
Para estudiar comportamientos naturales, los animales deben ser capaces de moverse libremente en entornos emulando condiciones naturales. Experimentos de este tipo se ven dificultados por la naturaleza cableada de los sistemas de adquisición. Otras restricciones físicas, como el peso de los implantes o limitaciones en el consumo de energía, pueden también afectar a la duración de los experimentos, limitándola. La experimentación puede verse enriquecida cuando los datos electrofisiológicos se ven complementados con múltiples fuentes distintas. Por ejemplo, seguimiento de los animales o miscroscopía. Herramientas capaces de integrar datos independientemente de su origen abren la puerta a nuevas posibilidades.
Los avances tecnológicos presentados abordan estas limitaciones. Se han diseñado dispositivos con latencias de lazo cerrado inferiores a 200us que permiten combinar cientos de canales electrofisiológicos con otras fuentes de datos, como vídeo o seguimiento. El software de control para estos dispositivos se ha diseñado manteniendo la flexibilidad como objetivo. Se han desarrollado interfaces y estándares de naturaleza abierta para incentivar el desarrollo de herramientas compatibles entre ellas.
Para resolver los problemas de cableado se siguieron dos métodos distintos. Uno fue el desarrollo de headstages ligeros combinados con cables coaxiales ultra finos y conmutadores activos, gracias al seguimiento de animales. Este desarrollo permite reducir el esfuerzo impuesto a los animales, permitiendo espacios amplios y experimentos de larga duración, al tiempo que permite el uso de headstages con características avanzadas.
Paralelamente se desarrolló un tipo diferente de headstage, con tecnología inalámbrica. Se creó un algoritmo de compresión digital especializado capaz de reducir el ancho de banda a menos del 65% de su tamaño original, ahorrando energía. Esta reducción permite baterías más ligeras y mayores tiempos de operación. El algoritmo fue diseñado para ser capaz de ser implementado en una gran variedad de dispositivos.
Los desarrollos presentados abren la puerta a nuevas posibilidades experimentales para la neurociencia, combinando adquisición elextrofisiológica con estudios conductuales en condiciones naturales y estímulos complejos en tiempo real. / [CA] L'electrofisiologia extracel·lular és una tècnica àmpliament utilitzada en la investigació neurocientífica, la qual permet estudiar el funcionament del cervell mitjançant el mesurament de camps elèctrics generats per l'activitat neuronal. Això es realitza a través d'elèctrodes implantats al cervell, connectats a dispositius electrònics per a l'amplificació i digitalització dels senyals. Dels molts models animals utilitzats en experimentació electrofisiològica, les rates i els ratolins es troben entre les espècies més utilitzades.
Actualment, l'experimentació electrofisiològica busca condicions cada vegada més complexes, limitades per la tecnologia dels dispositius d'adquisició. Dos aspectes són d'especial interès: La realimentació de sistemes de llaç tancat i el comportament en condicions naturals. En aquesta tesi es presenten desenvolupaments amb l'objectiu de millorar diferents aspectes d'aquestos dos problemes.
La realimentació de sistemes de llaç tancat es refereix a totes aquestes tècniques on els estímuls es produeixen en resposta a un esdeveniment generat per l'animal. La latència ha d'ajustar-se a les escales temporals sota estudi. Els sistemes moderns d'adquisició presenten latències en l'ordre dels 10ms. No obstant això, per a respondre a esdeveniments ràpids, com poden ser els potencials d'acció, es requereixen latències per davall de 1ms. A més a més, els algoritmes per a detectar els esdeveniments o generar els estímuls poden ser complexos, integrant varies entrades de dades a temps real. Integrar el desenvolupament d'aquests algoritmes en les eines d'adquisició forma part del disseny dels experiments.
Per a estudiar comportaments naturals, els animals han de ser capaços de moure's lliurement en ambients emulant condicions naturals. Aquestos experiments es veuen limitats per la natura cablejada dels sistemes d'adquisició. Altres restriccions físiques, com el pes dels implants o el consum d'energia, poden també limitar la duració dels experiments. L'experimentació es pot enriquir quan les dades electrofisiològiques es complementen amb dades de múltiples fonts. Per exemple, el seguiment d'animals o microscòpia. Eines capaces d'integrar dades independentment del seu origen obrin la porta a noves possibilitats.
Els avanços tecnològics presentats tracten aquestes limitacions. S'han dissenyat dispositius amb latències de llaç tancat inferiors a 200us que permeten combinar centenars de canals electrofisiològics amb altres fonts de dades, com vídeo o seguiment. El software de control per a aquests dispositius s'ha dissenyat mantenint la flexibilitat com a objectiu. S'han desenvolupat interfícies i estàndards de naturalesa oberta per a incentivar el desenvolupament d'eines compatibles entre elles.
Per a resoldre els problemes de cablejat es van seguir dos mètodes diferents. Un va ser el desenvolupament de headstages lleugers combinats amb cables coaxials ultra fins i commutadors actius, gràcies al seguiment d'animals. Aquest desenvolupament permet reduir al mínim l'esforç imposat als animals, permetent espais amplis i experiments de llarga durada, al mateix temps que permet l'ús de headstages amb característiques avançades.
Paral·lelament es va desenvolupar un tipus diferent de headstage, amb tecnologia sense fil. Es va crear un algorisme de compressió digital especialitzat capaç de reduir l'amplada de banda a menys del 65% de la seua grandària original, estalviant energia. Aquesta reducció permet bateries més lleugeres i majors temps d'operació. L'algorisme va ser dissenyat per a ser capaç de ser implementat a una gran varietat de dispositius.
Els desenvolupaments presentats obrin la porta a noves possibilitats experimentals per a la neurociència, combinant l'adquisició electrofisiològica amb estudis conductuals en condicions naturals i estímuls complexos en temps real. / [EN] Extracellular electrophysiology is a technique widely used in neuroscience research. It can offer insights on how the brain works by measuring the electrical fields generated by neural activity. This is done through electrodes implanted in the brain and connected to amplification and digitization electronic circuitry. Of the many animal models used in electrophysiology experimentation, rodents such as rats and mice are among the most popular species.
Modern electrophysiology experiments seek increasingly complex conditions that are limited by acquisition hardware technology. Two particular aspects are of special interest: Closed-loop feedback and naturalistic behavior. In this thesis, we present developments aiming to improve on different facets of these two problems.
Closed-loop feedback encompasses all techniques in which stimuli is produced in response of an event generated by the animal. Latency, the time between trigger event and stimuli generation, must adjust to the biological timescale being studied. While modern acquisition systems feature latencies in the order of 10ms, response to fast events such as high-frequency electrical transients created by neuronal activity require latencies under $1ms$. In addition, algorithms for triggering or generating closed-loop stimuli can be complex, integrating multiple inputs in real-time. Integration of algorithm development into acquisition tools becomes an important part of experiment design.
For electrophysiology experiments featuring naturalistic behavior, animals must be able to move freely in ecologically meaningful environments, mimicking natural conditions. Experiments featuring elements such as large arenaa, environmental objects or the presence of another animals are, however, hindered by the wired nature of acquisition systems. Other physical constraints, such as implant weight or power restrictions can also affect experiment time, limiting their duration. Beyond the technical limits, complex experiments are enriched when electrophysiology data is integrated with multiple sources, for example animal tracking or brain microscopy. Tools allowing mixing data independently of the source open new experimental possibilities.
The technological advances presented on this thesis addresses these topics. We have designed devices with closed-loop latencies under 200us while featuring high-bandwidth interfaces. These allow the simultaneous acquisition of hundreds of electrophysiological channels combined with other heterogeneous data sources, such as video or tracking. The control software for these devices was designed with flexibility in mind, allowing easy implementation of closed-loop algorithms. Open interface standards were created to encourage the development of interoperable tools for experimental data integration.
To solve wiring issues in behavioral experiments, we followed two different approaches. One was the design of light headstages, coupled with ultra-thin coaxial cables and active commutator technology, making use of animal tracking. This allowed to reduce animal strain to a minimum allowing large arenas and prolonged experiments with advanced headstages.
A different, wireless headstage was also developed. We created a digital compression algorithm specialized for neural electrophysiological signals able to reduce data bandwidth to less than 65.5% its original size without introducing distortions. Bandwidth has a large effect on power requirements. Thus, this reduction allows for lighter batteries and extended operational time. The algorithm is designed to be able to be implemented in a wide variety of devices, requiring low hardware resources and adding negligible power requirements to a system.
Combined, the developments we present open new possibilities for neuroscience experiments combining electrophysiology acquisition with natural behaviors and complex, real-time, stimuli. / The research described in this thesis was carried out at the Polytechnic University of Valencia
(Universitat Politècnica de València), Valencia, Spain in an extremely close collaboration with the
Neuroscience Institute - Spanish National Research Council - Miguel Hernández University (Instituto
de Neurociencias - Consejo Superior de Investigaciones Cientí cas - Universidad Miguel Hernández),
San Juan de Alicante, Spain. The projects described in chapters 3 and 4 were developed in collabo-
ration with, and funded by, Open Ephys, Cambridge, MA, USA and OEPS - Eléctronica e produção,
unipessoal lda, Algés, Portugal. / Cuevas López, A. (2021). Development of Advanced Closed-Loop Brain Electrophysiology Systems for Freely Behaving Rodents [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/179718
|
Page generated in 0.0325 seconds