• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 3
  • Tagged with
  • 11
  • 11
  • 7
  • 6
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

APLICACIÓN DE REDES NEURONALES ARTIFICIALES EN EL PROCESADO VERSÁTIL DE SEÑALES ELECTROCARDIOGRÁFICAS

Mateo Sotos, Jorge 23 October 2012 (has links)
Es bien conocida la importancia de la señal electrocardiográfica para el diagnóstico de multitud de enfermedades cardiacas, tanto mediante inspección visual como mediante técnicas actuales de inspección automática. Como en cualquier otra señal, la cantidad de información extraída y la calidad de la misma dependerán de propiedades tales como relación señal-ruido, resolución del conversor analógico-digital, frecuencia de muestreo, etc. Por esta razón, es de gran importancia que la señal ofrezca una `calidad' adecuada, máxime cuando el diagnóstico de ciertas enfermedades cardiovasculares graves depende de ello. La reducción del ruido en el electrocardiograma (ECG) ha sido uno de los temas más abordados en la bibliografía sobre procesado de señal de ECG. Han sido y son muy diversas las maneras de afrontar el problema y no existe un único método de aplicación universal a todas las fuentes de ruido y todos los casos. En esta tesis doctoral se han estudiado las principales fuentes de ruido que aparecen en el registro del ECG. Algunas de éstas pueden minimizarse en la fase de adquisición de la señal prestando un especial cuidado a ciertas normas o reglas. Sin embargo, otras, como el ruido muscular, o la deriva de la línea base y artefactos, no pueden eliminarse o reducirse al máximo en la fase de adquisición y se hacen necesarias técnicas de procesado de señal a posteriori para su reducción a un nivel aceptable. Una de las primeras opciones es el filtrado de la señal, mediante filtros lineales o no lineales que maximicen la relación señal a ruido como, por ejemplo, el filtro de Wiener. Cuando el espectro de la señal de interés y el ruido se solapan, las técnicas de filtrado dejan de ser eficaces. En ese caso, otra de las técnicas comunes que se aplican es el promediado de señal. Su utilización resulta eficaz siempre y cuando la señal y el ruido a reducir cumplan ciertas condiciones. El filtrado adaptativo ha sido otra de las técnicas que han obtenido resultados aceptables e / Mateo Sotos, J. (2012). APLICACIÓN DE REDES NEURONALES ARTIFICIALES EN EL PROCESADO VERSÁTIL DE SEÑALES ELECTROCARDIOGRÁFICAS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17530 / Palancia
2

Caracterización y modelado de la producción de sonidos de las ballenas beluga (Delphinapterus Leucas) basado en modelos de análisis / síntesis de voz

Lara Martínez, Guillermo-Fernán 28 November 2016 (has links)
[EN] This thesis deals with the study of the sounds produced by beluga whales (Delphinapterus leucas) with a fundamental objective: its characterization and modeling. To this end, analysis / synthesis algorithms of the sounds produced by these animals are proposed. These algorithms are inspired by recent researches on how beluga whales produce the sound and in the physiognomy of the sound production organs. This is a multidisciplinary work, and in order to achieve this goal many fields and topics have to be studied: the generation of sounds in musical instruments, time-frequency analysis techniques along with pattern recognition methods, feature selection, the potential to include algorithms that work in the cepstral domain and a quantitative analysis of the Recurrence Plots. All this allows to propose a sound production model capable to adapt to the peculiarities of this specie and reproduce with high fidelity its wide repertoire of sounds. In addition, in order to validate the proposed model, different sounds from a database of beluga whale vocalisations were analysed. These sounds were compared with those generated with a generic analysis / synthesis model. Furthermore, it is proposed to use the synthesis model parameters for a new sound classification based on how the sounds are produced, achieving better results than those obtained with classifiers based on characteristics of the time-frequency diagram. All the proposed hypotheses have been validated by doing acoustic measurements of beluga whales from the Oceanografic of Valencia (supervised by park biologists), as well as a large number of audio laboratory recordings under controlled conditions. Finally, a passive acoustic monitoring device called SAMARUC design in the framework of the projects related to this thesis is described. The SAMARUC system has the possibility to include different signal processing algorithms for sound analysis in open water environment and is capable of recording high quality sounds. It can also provide the classification of the acoustic events as well as the noise indicators of good environmental status of our seas and oceans. These indicators include underwater noise levels as reflected in the Descriptor 11 of the Marine European Directive. For this reason we expect that this research will have a significant importance in the future years. / [ES] Esta tesis doctoral aborda el estudio de los sonidos producidos por las ballenas beluga (Delphinapterus Leucas) con un objetivo fundamental: su caracterización y su modelado. Para ello, se propone una serie de algoritmos de análisis / síntesis de los sonidos producidos por estos animales inspirados en las recientes investigaciones sobre el funcionamiento y la fisionomía del aparato fonador de las ballenas beluga. Se trata de un trabajo multidisciplinar, en el que para alcanzar este objetivo, se analiza la generación de sonidos en instrumentos musicales, se repasan técnicas de análisis tiempo-frecuencia junto con métodos de reconocimiento de patrones, se aplican técnicas de selección de características, se analiza el potencial de incluir algoritmos que trabajen en el dominio cepstral y se realiza un análisis cuantitativo de los Recurrence Plots como medida del determinismo. Todo esto permite plantear un modelo de producción de sonidos capaz de adaptarse a las peculiaridades de ésta especie y reproducir con una alta fidelidad su amplio repertorio de sonidos. Además, con la finalidad de dar validez al modelo propuesto, se analizan y sintetizan diferentes sonidos de una base de datos de vocalizaciones de ballenas beluga para compararlos con los generados con un modelo de análisis/ síntesis genérico. De manera adicional, se propone emplear los parámetros del modelo de síntesis para realizar una nueva clasificación de sonidos de la especie basada en su naturaleza de producción, consiguiendo mejorar los resultados obtenidos con clasificadores basados en características del diagrama tiempo-frecuencia. Las hipótesis propuestas han sido validadas con la realización de medidas acústicas de las ballenas beluga del Oceanografic de València (supervisadas por los cuidadores del parque), así como con un gran número grabaciones de audio de laboratorio en condiciones controladas. Finalmente se describe el dispositivo de monitorización acústica pasiva SAMARUC, diseñado con la funcionalidad de incluir los algoritmos implementados en entornos de aguas abiertas, pudiendo ofrecer datos de la grabación de los sonidos, la clasificación de éstos, así como los indicadores del buen estado medioambiental de nuestros mares y océanos. Estos indicadores incluyen los niveles de ruido submarino tal y como se recoge en el descriptor 11 de la Directiva Marina Europea y es por ello que se prevé que esta línea de investigación tenga un auge considerable en años futuros. / [CAT] Aquesta tesi doctoral aborda l'estudi dels sons produïts per les ballenes beluga (Delphinapterus Leucas) amb un objectiu fonamental: la seua caracterització y modelat. Es proposen una sèrie d'algoritmes d'anàlisi / síntesi d'aquestos sons inspirats en recents investigacions sobre el funcionament i la fisonomia del aparell fonador de les ballenes beluga. Es tracta d'un treball multidisciplinar, on per a arribar a aquest objectiu s'analitza la generació de sons en instruments musicales, es repassen tècniques d'anàlisi temps-freqüencia junt a mètodes de reconeixement de patrons, s'apliquen tècniques de selecció de característiques, s'analitza el potencial de la inclusió d'algoritmes que treballen en el domini cepstral i es realitza un anàlisi quantitatiu dels Recurrence Plots com a mètrica del determinisme. Tot aço permet plantejar un model de producción de sons capaç d'adaptar-se a les peculiaritats d'aquesta espècie i reproduir amb una alta fidelitat el seu amplíssim repertori de sons. Ademés, amb la finalitat de donar validesa al model proposat, s'analitzen i sintetitzen diferents sons d'una base de dades de vocalitzacions de ballenes beluga per a comparar-les amb les generades per un model d'anàlisi / síntesi genèric. De manera addicional es proposa emprar els paràmetres del model de síntesi disenyat per a fer una nova classificació de sons basada en la seua naturalesa de producció, aconseguint millorar el resultats obtinguts amb classificadors basats en característiques del diagrama temps-freqüencia. Les hipòtesis proposades han sigut validades amb la realització de mesures acústiques de les ballenes beluga de l'Oceanogràfic de Valéncia (supervisades pels cuidadors del parc), així com una gran quantitat de grabacions d'àudio de laboratori en condicions controlades. Finalment es descriu el dispositiu de monitorització acústica pasiva SAMARUC, disenyat amb la funcionalitat d'incloure els algoritmes implementats en entorns d'aigües obertes, podent oferir dades de la grabació dels sons, la seua classificació, així com els indicadors del benestar mediambiental dels nostres mars i oceans. Aquestos indicadors inclueixen els nivells de so submarí tal com es diu al descriptor 11 de la Directiva Marina Europea. Es per aço que es preveu que aquesta línia d'investigació tinga un auge considerable als anys futurs. / Lara Martínez, G. (2016). Caracterización y modelado de la producción de sonidos de las ballenas beluga (Delphinapterus Leucas) basado en modelos de análisis / síntesis de voz [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/74645 / TESIS
3

Medidas de entropía en el procesado de señales biológicas: robustez y caracterización frente a pérdida de muestras y longitud de los registros

Cirugeda Roldán, Eva María 03 September 2014 (has links)
Las medidas de complejidad son un conjunto de métodos estadísticos que permiten estimar la regularidad de un sistema. Estos métodos se basan en técnicas de análisis no lineal de forma que se pueda caracterizar un señal sin hacer asunciones implícitas de estacionariedad o ergocidad de la misma. Estos métodos se están aplicando ampliamente sobre señales biológicas debido a la naturaleza de las mismas. Las señales biológicas se caracterizan por ser irregulares, no lineales y variables en el tiempo, de forma que los métodos tradicionales de análisis lineal no consiguen caracterizar su comportamiento completamente. Estas medidas funcionan muy bien en la práctica, ya que consiguen extraer información de las señales que de otra forma no es posible. Entre otras capacidades, consiguen diferenciar estados patológicos, precedir la aparición de un ataque epiléptico o distinguir entre estados del sueño. Pero su aplicación presenta cierta controversia, ya que carecen de una caracterización que indique al usuario qué medida aplicar en función de las características del registro, cómo debe ser aplicada o incluso c´omo interpretar los resultados obtenidos. En este trabajo se ha propuesto abordar una caracterización de algunas de las medidas de complejidad de uso más común. Se muestra una caracterización de la entropía aproximada (ApEn), la entropía muestral (SampEn), la entropía en multiples escalas o multiescala (MSE), el análisis de fluctuaciones sin tendencias (DFA), la entropía cuadrada de R´enyi (RSE) y el coeficiente de entropía muestral (CosEn), ante situaciones en las que las señales han perdido muestras o cuya longitud es limitada. La pérdida de muestras es algo muy común en la actualidad, dónde la mayoría de los registros se hacen de forma ambulatoria y el espacio de almacenamiento es limitado (compresión de datos) o la transmisión se hace de forma inalámbrica, donde el canal puede presentar condiciones inestables o interferencias que causen la pérdida de muestras, bien de forma uniforme o aleatoria. La longitud limitada de los registros puede deberse, entre otras posibilidades, a que la toma de datos se ha realizado de forma manual o ´esta resulta incómoda para el paciente. Se presenta una caracterización paramétrica de las medidas para las señales de longitud reducidas y se proponen dos métodos de optimización no supervisada para el análisis de registros de corta duración con RSE o CosEn. Este trabajo muestra cómo las medidas de entropía consideradas, presentan un comportamiento similar ante una misma situación, conservando las capacidad de separabilidad entre clases, indepedientemente del registro biológico analizado, siempre y cuando la medida se use de forma correcta. SampEn se ha erigido como la medida más estable y de mayor aplicabilidad en registros de duración media (300<N <5000) cuando las señales pierden muestras, tanto de forma aleatoria, como uniforme manteniendo coeficientes de correlación cruzados por encima de 0.8 hasta un 70% de pérdidas. Si las señales presentan desviaciones estándar altas o gran variabilidad, se recomienda la aplicación de MSE ya que introduce un suavizado y decorrelaci´on de los patrones. En señales de corta duración (100 < N < 300) se recomienda el uso de DFA, ya que permite una caracterización de la complejidad de forma estable y robusta aunque con un coste computacional alto y la necesidad de realizar una inspección visual para determinar el número de coeficientes de escalado necesarios. Finalmente, en señales de muy corta duración (N < 100) se recomienda el uso de CosEn. Se han conseguido segmentar señales de HTA en humanos de apenas 55 muestras, algo muy novedoso, con mejores estadísticos que RSE. / Cirugeda Roldán, EM. (2014). Medidas de entropía en el procesado de señales biológicas: robustez y caracterización frente a pérdida de muestras y longitud de los registros [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/39343 / Alfresco
4

Caracterización de medidas de regularidad en señales biomédicas. Robustez a outliers

Molina Picó, Antonio 03 September 2014 (has links)
Los sistemas fisiológicos generan señales eléctricas durante su funcionamiento. Estas señales pueden ser registradas y representadas, constituyendo un elemento fundamental de ayuda al diagnóstico en la práctica clínica actual. Sin embargo, la inspección visual no permite la extracción completa de la información contenida en estas señales. Entre las técnicas de procesamiento automático, destacan los métodos no lineales, específicamente aquellos relacionados con la estimación de la regularidad de la señal subyacente. Estos métodos están ofreciendo en los ´últimos años resultados muy significativos en este ´ámbito. Sin embargo, son muy sensibles a las interferencias en las señales, ocurriendo una degradación significativa de su capacidad diagnostica si las señales biomédicas están contaminadas. Uno de los elementos que se presenta con cierta frecuencia en los registros fisiológicos y que contribuye a esta degradación de prestaciones en estimadores no lineales, son los impulsos de cortad duración, conocidos en este contexto como spikes. En este trabajo se pretende abordar la problemática asociada a la presencia de spikes en bioseñales, caracterizando su influencia en una serie de medidas concretas, para que la posible degradación pueda ser anticipada y las contramedidas pertinentes aplicadas. En concreto, las medidas de regularidad caracterizadas son: Approximate Entropy (ApEn), Sample Entropy (SampEn), Lempel Ziv Complexity (LZC) y Detrended Fluctuation Analysis (DFA). Todos estos métodos han ofrecido resultados satisfactorios en multitud de estudios previos en el procesado de señales biomédicas. La caracterización se lleva a cabo mediante un exhaustivo estudio experimental en el cual se aplican spikes controlados a diferentes registros fisiológicos, y se analiza cuantitativa y cualitativamente la influencia de dichos spikes en la estimación resultante. Los resultados demuestran que el nivel de interferencia, así como los parámetros de las medidas de regularidad, afectan de forma muy variada. En general, LZC es la medida más robusta del conjunto caracterizado frente a spikes, mientras que DFA es la más vulnerable. Sin embargo, la capacidad de discernir entre clases permanece en muchos casos, a pesar de los cambios producidos en los valores absolutos de entropía. / Molina Picó, A. (2014). Caracterización de medidas de regularidad en señales biomédicas. Robustez a outliers [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/39346 / Alfresco
5

Tonal description of music audio signals

Gómez Gutiérrez, Emilia 25 July 2006 (has links)
Aquesta tesi doctoral proposa i avalua un enfocament computacional per a la descripció automàtica dels aspectes tonals de la música a partir de l'anàlisi de senyals d'-audio polifòniques. Aquests mètodes es centren en el càlcul de descriptors de distribucions de notes, en l'estimació de tonalitat d'una peça, en la visualització de l'evolució del centre tonal o en la mesura de la similitud tonal entre dues peces diferents. Aquesta tesi contribueix substancialment al camp de la descripció tonal mitjançant mètodes computacionals: a) Proporciona una revisió multidisciplinària dels sistemes d'estimació de la tonalitat; b) Defineix una sèrie de requeriments que han de complir els descriptors tonals de baix nivell; c) Proporciona una avaluació quantitativa i modular dels mètodes proposats; d) Justifica la idea de que per a certes aplicacions es poden fer servir mètodes que treballen amb partitures sense la necessitat de realitzar una transcripció automàtica e) Estén la literatura existent que treballa amb música clàssica a altres generes musicals; f) Demostra la utilitat dels descriptors tonals per a comparar peces musicals; g) Proporciona un algoritme optimitzat que es fa servir dins un sistema real per a visualització, cerca i recomanació musical, que treballa amb més d'un milió de obres musicals. / Esta tesis doctoral propone y evalúa un enfoque computacional para la descripción automática de aspectos tonales de la música a partir del análisis de señales de audio polifónicas. Estos métodos se centran en calcular descriptores de distribución de notas, en estimar la tonalidad de una pieza, en visualizar la evolución del centro tonal o en medir la similitud tonal entre dos piezas diferentes.Esta tesis contribuye sustancialmente al campo de la descripción tonal mediante métodos computacionales: a) Proporciona una revisión multidisciplinar de los sistemas de estimación de la tonalidad; b) Define una serie de requerimientos que deben cumplir los descriptores tonales de bajo nivel; c) Proporciona una evaluación cuantitativa y modular de los métodos propuestos; d) Respalda la idea de que para ciertas aplicaciones no es necesario obtener una transcripción perfecta de la partitura, y que se pueden utilizar métodos que trabajan con partituras sin realizar una transcripción automática; e) Extiende la literatura existente que trabaja con música clásica a otros géneros musicales; f) Demuestra la utilidad de los descriptores tonales para comparar piezas musicales; g) Proporciona un algoritmo optimizado que se utiliza en un sistema real para visualización, búsqueda y recomendación musical, que trabaja con mas de un millón de piezas musicales. / This doctoral dissertation proposes and evaluates a computational approach for the automatic description of tonal aspects of music from the analysis of polyphonic audio signals. These algorithms focus on the computation of pitch class distributions descriptors, the estimation of the key of a piece, the visualization of the evolution of its tonal center or the measurement of the similarity between two different musical pieces.This dissertation substantially contributes to the field of computational tonal description: a) It provides a multidisciplinary review of tonal induction systems; b) It defines a set of requirements for low-level tonal features; c) It provides a quantitative and modular evaluation of the proposed methods; d) It contributes to bridge the gap between audio and symbolic-oriented methods without the need of a perfect transcription; e) It extents current literature dealing with classical music to other musical genres; f) It shows the usefulness of tonal descriptors for music similarity; g) It provides an optimized method which is used in a real system for music visualization and retrieval, working with over a million of musical pieces.
6

Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECG

Jiménez Serrano, Santiago 07 September 2023 (has links)
[ES] Las enfermedades cardiovasculares son una de las principales causas de mortalidad y morbilidad en el mundo. Entre las arritmias más comunes en adultos destaca la Fibrilación Auricular (FA), presentando una tendencia de crecimiento muy significativa, sobre todo en población de edad avanzada o con trastornos de obesidad. En el otro extremo, nos encontramos con la Miocardiopatía Arritmogénica (MCA), considerada una enfermedad rara con una prevalencia de 1:2000-5000 pero con gran afectación entre familiares directos, causante de muerte súbita cardiaca (MSC), y con un diagnóstico clínico complicado. Más allá de la FA o la MCA, existe una amplia variedad de patologías derivadas de una disfunción en la activación y conducción eléctrica del corazón. Para todas ellas, el electrocardiograma (ECG) continúa figurando como la primera y principal técnica de diagnóstico clínico, siendo una herramienta fundamental de cribado y detección de patologías relativamente económica y ampliamente accesible. Sin embargo, el diagnóstico preciso a partir de la interpretación del ECG requiere de médicos experimentados, siendo ésta una tarea que consume recursos, tiempo y que además está sujeta a la variabilidad entre observadores. Respecto a las afecciones cardiacas más comunes, conseguir un diagnóstico de forma automática que sea fiable, utilizando tanto 12 como un número reducido o único de derivaciones, sigue presentándose como un desafío. Este aspecto cobra especial relevancia con el uso cada vez más extendido de dispositivos portátiles o wearables, los cuales están ganando un gran interés para la detección temprana y preventiva de enfermedades cardiacas, registrando normalmente un número reducido de derivaciones ECG. Dicho uso masivo les confiere un gran potencial para facilitar el cribado y seguimiento de distintas afecciones en una amplia variedad de escenarios, a pesar de registrar señales de peor calidad en comparación con equipos certificados para uso clínico. El principal reto con estos dispositivos es encontrar un equilibrio adecuado entre la sensibilidad y la especificidad en la detección de ritmos cardiacos susceptibles de ser patológicos. En consecuencia, es indispensable diseñar e implementar algoritmos precisos adecuados para dispositivos móviles o portátiles capaces de detectar distintas afecciones cardiacas en registros de ECG. Respecto las afecciones cardiacas menos comunes como el caso de la MCA, es necesario incrementar la sensibilidad en la detección durante los cribados intra-familiares realizados tras una MSC. Para ello, sería posible explorar biomarcadores propios a esta enfermedad obtenidos mediante técnicas de procesado de señales ECG, además de modelos de clasificación que hagan uso de ellos, contribuyendo así a reducir el número de casos de muerte súbita. En base a lo descrito anteriormente, la presente tesis estudia las posibilidades de diagnóstico basadas en técnicas de aprendizaje y clasificación automática en dos escenarios principales. El primero aborda la detección de la FA, así como un amplio abanico de otras patologías cardiacas comunes, donde proponemos y validamos distintos modelos de clasificación de bajo consumo computacional. Todo esto, utilizando extensas bases de datos de acceso abierto, y haciendo énfasis en enfoques de derivación única, ya que son los más utilizados en dispositivos móviles e inteligentes. El segundo escenario se centra en la detección de MCA mediante las 12 derivaciones estándar del ECG, donde proponemos y validamos nuevos biomarcadores y modelos de clasificación que tratan de incrementar la sensibilidad de los cribados intra-familiares realizados tras una MSC. Para ello, utilizamos una base de datos específica de la Unidad de Cardiopatías Familiares del Hospital Universitario y Politécnico La Fe de València. / [CA] Les malalties cardiovasculars són una de les principals causes de mortalitat i morbiditat en el món. Entre les arrítmies més comunes en adults destaca la Fibril·lació Auricular (FA), presentant una tendència de creixement molt significativa, sobretot en població d'edat avançada o amb trastorns d'obesitat. En l'altre extrem, ens trobem amb la Miocardiopatia Arritmogènica (MCA), considerada una malaltia rara amb una prevalença de 1:2000-5000 però amb gran afectació entre familiars directes, causant de mort sobtada cardíaca (MSC), i amb un diagnòstic clínic complicat. Més enllà de la FA o la MCA, existeix una àmplia varietat de patologies derivades d'una disfunció en l'activació i conducció elèctrica del cor. Per a totes elles, l'electrocardiograma (ECG) continua figurant com la primera i principal tècnica de diagnòstic clínic, sent una eina fonamental de cribratge i detecció de patologies relativament econòmica i àmpliament accessible. No obstant això, el diagnòstic precís a partir de la interpretació del ECG requereix de metges experimentats, sent aquesta una tasca que consumeix recursos, temps i que a més està subjecta a la variabilitat entre observadors. Respecte a les afeccions cardíaques més comunes, aconseguir un diagnòstic de manera automàtica que siga fiable, utilitzant tant 12 com un número reduït o únic de derivacions, continua presentant-se com un desafiament. Aquest aspecte cobra especial rellevància amb l'ús cada vegada més estés de dispositius portàtils o wearables, els quals estan guanyant un gran interés per a la detecció precoç i preventiva de malalties cardíaques, registrant normalment un nombre reduït de derivacions ECG. Aquest ús massiu els confereix un gran potencial per a facilitar el cribratge i seguiment de diferents afeccions en una àmplia varietat d'escenaris, malgrat registrar senyals de pitjor qualitat en comparació amb equips certificats per a ús clínic. El principal repte amb aquests dispositius és trobar un equilibri adequat entre la sensibilitat i l'especificitat en la detecció de ritmes cardíacs susceptibles de ser patològics. En conseqüència, és indispensable dissenyar i implementar algorismes precisos adequats per a dispositius mòbils o portàtils capaços de detectar diferents afeccions cardíaques en registres de ECG. Respecte les afeccions cardíaques menys comunes com el cas de la MCA, és necessari incrementar la sensibilitat en la detecció durant els cribratges intra-familiars realitzats després d'una MSC. Per a això, seria possible explorar biomarcadors propis a aquesta malaltia obtinguts mitjançant tècniques de processament de senyals ECG, a més de models de classificació que facen ús d'ells, contribuint així a reduir el nombre de casos de mort sobtada. Sobre la base del descrit anteriorment, la present tesi estudia les possibilitats de diagnòstic basades en tècniques d'aprenentatge i classificació automàtica en dos escenaris principals. El primer aborda la detecció de la FA, així com un ampli ventall d'altres patologies cardíaques comunes, on proposem i validem diferents models de classificació de baix consum computacional. Tot això, utilitzant extenses bases de dades d'accés obert, i fent èmfasi en enfocaments de derivació única, ja que són els més utilitzats en dispositius mòbils i intel·ligents. El segon escenari se centra en la detecció de MCA mitjançant les 12 derivacions estàndard de l'ECG, on proposem i validem nous biomarcadors i models de classificació que tracten d'incrementar la sensibilitat dels cribratges intra-familiars realitzats després d'una MSC. Per a això, utilitzem una base de dades específica de la Unitat de Cardiopaties Familiars de l'Hospital Universitari i Politècnic La Fe de València. / [EN] Cardiovascular diseases are one of the leading causes of mortality and morbidity worldwide. Atrial Fibrillation (AF) stands out among adults' most common arrhythmias, presenting a very significant growth trend, especially in the elderly population or those with obesity disorders. At the other extreme, we find Arrhythmogenic Cardiomyopathy (ACM), a rare disease with a prevalence of 1:2000-5000 but great affectation among direct relatives, causing sudden cardiac death (SCD), and with a complicated clinical diagnosis. Beyond AF or ACM, there is a wide variety of pathologies derived from dysfunctions in the activation or electrical conduction of the heart. For all of them, the electrocardiogram (ECG) continues to appear as the first and foremost clinical diagnostic technique, being a fundamental tool for screening and detecting pathologies that is relatively cheap and widely accessible. However, accurate diagnosis based on ECG interpretation requires experienced physicians, as this task consumes resources, time and is subject to variability between observers. For the most common cardiac conditions, achieving a reliable diagnosis automatically, using either 12 or a smaller or single number of leads, remains a challenge. This aspect is especially relevant with the increasingly widespread use of portable or wearable devices, which are gaining significant interest for the early and preventive detection of heart disease, typically recording a reduced number of ECG leads. Such massive use gives them great potential to facilitate screening and monitoring different conditions in different scenarios, despite registering signals of lower quality compared to equipment certified for clinical use. The main challenge with these devices is finding the right balance between sensitivity and specificity in detecting pathologic heart rhythms. Consequently, designing and implementing accurate algorithms suitable for mobile or portable devices capable of detecting different cardiac conditions in ECG recordings is essential. Concerning less common cardiac conditions such as the case of ACM, it is necessary to increase the sensitivity in detection during intra-family screenings carried out after an SCD. Hence, it would be possible to explore specific biomarkers to this disease obtained through ECG signal processing techniques, as well as classification models that use them, thus contributing to reduce the number of cases of sudden death. Based on the previously described, this thesis studies the diagnostic possibilities based on machine learning and classification techniques in two main scenarios. The first deals with detecting AF and a wide range of other common cardiac pathologies, where we propose and validate different classification models with low computational consumption. All this, using extensive open access databases, and emphasizing single-lead approaches, since they are the most used in mobile and smart devices. The second scenario focuses on detecting ACM using the standard 12-lead ECG, where we propose and validate new biomarkers and classification models that try to increase the sensitivity of intra-family screenings carried out after an MSC. For this task, we used a specific database of the Familial Cardiopathies Unit of the Hospital Universitario y Politécnico La Fe de València. / Jiménez Serrano, S. (2023). Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECG [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196826
7

Nuevas contribuciones a la teoría y aplicación del procesado de señal sobre grafos

Belda Valls, Jordi 16 January 2023 (has links)
[ES] El procesado de señal sobre grafos es un campo emergente de técnicas que combinan conceptos de dos áreas muy consolidadas: el procesado de señal y la teoría de grafos. Desde la perspectiva del procesado de señal puede obtenerse una definición de la señal mucho más general asignando cada valor de la misma a un vértice de un grafo. Las señales convencionales pueden considerarse casos particulares en los que los valores de cada muestra se asignan a una cuadrícula uniforme (temporal o espacial). Desde la perspectiva de la teoría de grafos, se pueden definir nuevas transformaciones del grafo de forma que se extiendan los conceptos clásicos del procesado de la señal como el filtrado, la predicción y el análisis espectral. Además, el procesado de señales sobre grafos está encontrando nuevas aplicaciones en las áreas de detección y clasificación debido a su flexibilidad para modelar dependencias generales entre variables. En esta tesis se realizan nuevas contribuciones al procesado de señales sobre grafos. En primer lugar, se plantea el problema de estimación de la matriz Laplaciana asociada a un grafo, que determina la relación entre nodos. Los métodos convencionales se basan en la matriz de precisión, donde se asume implícitamente Gaussianidad. En esta tesis se proponen nuevos métodos para estimar la matriz Laplaciana a partir de las correlaciones parciales asumiendo respectivamente dos modelos no Gaussianos diferentes en el espacio de las observaciones: mezclas gaussianas y análisis de componentes independientes. Los métodos propuestos han sido probados con datos simulados y con datos reales en algunas aplicaciones biomédicas seleccionadas. Se demuestra que pueden obtenerse mejores estimaciones de la matriz Laplaciana con los nuevos métodos propuestos en los casos en que la Gaussianidad no es una suposición correcta. También se ha considerado la generación de señales sintéticas en escenarios donde la escasez de señales reales puede ser un problema. Los modelos sobre grafos permiten modelos de dependencia por pares más generales entre muestras de señal. Así, se propone un nuevo método basado en la Transformada de Fourier Compleja sobre Grafos y en el concepto de subrogación. Se ha aplicado en el desafiante problema del reconocimiento de gestos con las manos. Se ha demostrado que la extensión del conjunto de entrenamiento original con réplicas sustitutas generadas con los métodos sobre grafos, mejora significativamente la precisión del clasificador de gestos con las manos. / [CAT] El processament de senyal sobre grafs és un camp emergent de tècniques que combinen conceptes de dues àrees molt consolidades: el processament de senyal i la teoria de grafs. Des de la perspectiva del processament de senyal pot obtindre's una definició del senyal molt més general assignant cada valor de la mateixa a un vèrtex d'un graf. Els senyals convencionals poden considerar-se casos particulars en els quals els valors de la mostra s'assignen a una quadrícula uniforme (temporal o espacial). Des de la perspectiva de la teoria de grafs, es poden definir noves transformacions del graf de manera que s'estenguen els conceptes clàssics del processament del senyal com el filtrat, la predicció i l'anàlisi espectral. A més, el processament de senyals sobre grafs està trobant noves aplicacions en les àrees de detecció i classificació a causa de la seua flexibilitat per a modelar dependències generals entre variables. En aquesta tesi es donen noves contribucions al processament de senyals sobre grafs. En primer lloc, es planteja el problema d'estimació de la matriu Laplaciana associada a un graf, que determina la relació entre nodes. Els mètodes convencionals es basen en la matriu de precisió, on s'assumeix implícitament la gaussianitat. En aquesta tesi es proposen nous mètodes per a estimar la matriu Laplaciana a partir de les correlacions parcials assumint respectivament dos models no gaussians diferents en l'espai d'observació: mescles gaussianes i anàlisis de components independents. Els mètodes proposats han sigut provats amb dades simulades i amb dades reals en algunes aplicacions biomèdiques seleccionades. Es demostra que poden obtindre's millors estimacions de la matriu Laplaciana amb els nous mètodes proposats en els casos en què la gaussianitat no és una suposició correcta. També s'ha considerat el problema de generar senyals sintètics en escenaris on l'escassetat de senyals reals pot ser un problema. Els models sobre grafs permeten models de dependència per parells més generals entre mostres de senyal. Així, es proposa un nou mètode basat en la Transformada de Fourier Complexa sobre Grafs i en el concepte de subrogació. S'ha aplicat en el desafiador problema del reconeixement de gestos amb les mans. S'ha demostrat que l'extensió del conjunt d'entrenament original amb rèpliques substitutes generades amb mètodes sobre grafs, millora significativament la precisió del classificador de gestos amb les mans. / [EN] Graph signal processing appears as an emerging field of techniques that combine concepts from two highly consolidated areas: signal processing and graph theory. From the perspective of signal processing, it is possible to achieve a more general signal definition by assigning each value of the signal to a vertex of a graph. Conventional signals can be considered particular cases where the sample values are assigned to a uniform (temporal or spatial) grid. From the perspective of graph theory, new transformations of the graph can be defined in such a way that they extend the classical concepts of signal processing such as filtering, prediction and spectral analysis. Furthermore, graph signal processing is finding new applications in detection and classification areas due to its flexibility to model general dependencies between variables. In this thesis, new contributions are given to graph signal processing. Firstly, it is considered the problem of estimating the Laplacian matrix associated with a graph, which determines the relationship between nodes. Conventional methods are based on the precision matrix, where Gaussianity is implicitly assumed. In this thesis, new methods to estimate the Laplacian matrix from the partial correlations are proposed respectively assuming two different non-Gaussian models in the observation space: Gaussian Mixtures and Independent Component Analysis. The proposed methods have been tested with simulated data and with real data in some selected biomedical applications. It is demonstrate that better estimates of the Laplacian matrix can be obtained with the new proposed methods in cases where Gaussianity is not a correct assumption. The problem of generating synthetic signal in scenarios where real signals scarcity can be an issue has also been considered. Graph models allow more general pairwise dependence models between signal samples. Thus a new method based on the Complex Graph Fourier Transform and on the concept of subrogation is proposed. It has been applied in the challenging problem of hand gesture recognition. It has been demonstrated that extending the original training set with graph surrogate replicas, significantly improves the accuracy of the hand gesture classifier. / Belda Valls, J. (2022). Nuevas contribuciones a la teoría y aplicación del procesado de señal sobre grafos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/191333
8

Técnicas de transmisión sobre fibra óptica con dispersión modal

Medina Sevila, Pau 03 November 2017 (has links)
The birth of the knowledge and information society has been made possible mainly by the development of the optical fiber communications. The optical fiber characteristics, as a very low loss and very high capacity transmission medium, have let to meet until recent dates the increasing demand of data transmission by using simple communications systems from the point of view of signal theory. The overall aim of this thesis consists in applying more advanced signal transmission techniques to several scenarios of optical fiber communications to increase their potential capabilities. The studied scenarios share a common feature consisting in that the light propagates under multimodal condition. Moreover, numerical simulations have been employed when evaluating the proposals in this dissertation, to study a greater range of fiber conditions and thus, more general conclusions can be obtained. Firstly, it has been studied the ability of Orthogonal Frequency-Division Multiplexing (OFDM) to compensate the modal dispersion in MMF links at 1550 nm. It has been shown how the classical scheme with cyclic prefix (CP-OFDM) has deficient performance in detecting the received signal when channel conditions generate strong frequency selectivity. To overcome this limitation, it has been proposed as a novelty the use of zero padding OFDM (ZP-OFDM), which can make use of several receiving schemes. Furthermore, it has been proposed for the first time a low-complexity combined receiver scheme (OLA+V-BLAST). Secondly, equalization techniques for amplitude modulated signals have been used to improve the reception in intensity-modulated and direct-detected (IM/DD) optical systems over standard single-mode fiber (SSMF) at 850nm, by using Vertical-Cavity Surface-Emitting Lasers (VCSEL's) as optical source. The simulation results over a numerical model constructed from experimental measures, which includes a statistical distribution of fiber misalignment due to optical connectors, allow to assert that the bidirectional DFE schemes (BiDFE) fit properly to this scenario, increasing noticeably the maximum reach achieved by the optical links. Finally, Multiple-Input Multiple-Output (MIMO) processing has been applied in systems with Mode-Division Multiplexing (MDM) over SSMF at 850~nm. This is the first time that these structures have been applied for the reception of MDM signals in this framework with bimodal propagation. By means of numerical simulations, the DFE-based MIMO receivers have been evaluated in their ability to compensate the mutual interference between the transmitted signals, which is generated in both the elements that carry out the multiplexation/demultiplexation (MUX/DEMUX) and the optical connectors in the SSMF installation. The results obtained show the good performance of the proposed MIMO receivers: the MIMO-DFE BiDFE with Linear Combining (MIMO LC-BiDFE), and the Fully Connected with Ordered Succesive Interference Cancellation MIMO-DFE (MIMO-DFE FC-OSIC). / El nacimiento de la sociedad de la información y el conocimiento ha sido posible en buena medida gracias al desarrollo de las comunicaciones sobre fibra óptica. Las características de la fibra, como medio de transmisión de muy bajas pérdidas y elevada capacidad, han permitido hasta fechas recientes cubrir la demanda siempre creciente en la transmisión de datos por medio de sistemas de comunicación sencillos desde el punto de vista de la teoría de la señal en comunicaciones. El enfoque de esta tesis consiste en aplicar técnicas de transmisión de señal más avanzadas en varios escenarios de comunicaciones sobre fibra con el fin de aumentar las capacidades potenciales de los mismos. Además, los escenarios estudiados en este trabajo comparten una característica común que consiste en que la transmisión de la luz en la fibra se produce en condiciones de propagación multimodal. Además, a la hora de evaluar las distintas propuestas, se han empleado simulaciones numéricas con el fin de estudiar la mayor gama de condiciones posibles que la fibra puede experimentar y obtener así unas conclusiones más generales. En primer lugar, se ha estudiado la capacidad de multiplexación por división en frecuencia ortogonal (OFDM) de compensar la dispersión modal en enlaces de fibra multimodo (MMF) a 1550 nm. Se ha mostrado cómo la implementación clásica con prefijo cíclico (CP-OFDM) tiene un pobre rendimiento en cuanto a la detección de las señales recibidas en condiciones de fuerte selectividad frecuencial del canal. Para superar esta limitación, se ha propuesto de manera novedosa la utilización del esquema OFDM con postfijo de ceros (ZP-OFDM). Además, se ha propuesto por primera vez un esquema de recepción ZP-OFDM combinado (OLA+V-BLAST) de baja complejidad. En segundo lugar, se han utilizado técnicas de igualación para mejorar la recepción en sistemas ópticos con modulación de intensidad y detección directa (IM/DD) sobre fibra monomodo estándar (SSMF) a la longitud de onda de 850 nm, utilizando láseres de cavidad vertical y emisión superficial (VCSEL) como fuentes ópticas. Los resultados de las simulaciones sobre un modelo numérico construido a partir de medidas experimentales, incluyendo una distribución estadística de la desalineación entre fibras debido a conectores ópticos, permiten afirmar que los esquemas de igualación DFE bidireccionales se ajustan adecuadamente a este escenario, permitiendo aumentar de forma notable el alcance máximo de los enlaces. Finalmente, se ha aplicado el procesado de señal de entrada múltiple y salida múltiple (MIMO) en un sistema con multiplexación por división modal (MDM) sobre SSMF a 850 nm. Esta es la primera vez que se aplican estas estructuras para la recepción de señales con MDM en este escenario de propagación bimodal. Por medio de simulaciones numéricas, los distintos receptores propuestos, basados en el esquema de igualación DFE, han sido evaluados en su capacidad de compensar la interferencia entre las distintas señales transmitidas, debida a los elementos que permiten la multiplexación/de-multiplexación (MUX/DEMUX) y a los conectores que pueda incluir el enlace de SSMF con alta dispersión modal. Los resultados obtenidos muestran el buen rendimiento de los dos esquemas MIMO propuestos: el esquema BiDFE con combinación lineal (MIMO LC-BiDFE), y el esquema MIMO-DFE con cancelación sucesiva de interferencia ordenada (MIMO-DFE FC-OSIC). / El naixement de la societat de la informació i el coneixement ha sigut possible, en bona mesura, gràcies al desenvolupament de les comunicacions sobre fibra òptica. Les característiques de la fibra, com a mitjà de transmissió de molt baixes pèrdues i alta capacitat, han permès fins a dates recents cobrir la demanda sempre creixent en la transmissió de dades per mitjà de sistemes de comunicació senzills des del punt de vista de la teoria del senyal en comunicacions. L'enfocament d'aquesta tesi consisteix en aplicar tècniques de transmissió més avançades en diversos escenaris en les comunicacions sobre fibra amb el propòsit d'augmentar les capacitats potencials dels mateixos. Els escenaris estudiats comparteixen una característica comuna que consisteix que la transmissió de la llum a la fibra es produeix en condicions de propagació multimodal. A l'hora d'avaluar les distintes propostes, s'hi han emprat simulacions numèriques per tal d'estudiar la major gamma de condicions possibles que la fibra puga experimentar i obtenir així unes conclusions més generals. En primer lloc, s'ha estudiat la capacitat de la multiplexació per divisió en freqüència ortogonal (OFDM) de compensar la dispersió modal en enllaços de MMF a 1550 nm. S'hi ha mostrat com la implementació clàssica amb prefix cíclic (CP-OFDM) té un rendiment pobre en quant a la detecció dels senyals rebuts en condicions de forta selectivitat freqüencial del canal. Per superar aquesta limitació, s'hi ha proposat de manera innovadora la utilització de l'esquema OFDM amb postfix de ceros (ZP-OFDM). Amés, s'hi ha proposat per primera vegada una esquema de recepció combinat (OLA+V~-BLAST) de baixa complexitat. En segon lloc, s'han utilitzat tècniques d'igualació de senyals modulades en amplitud per millorar la recepció en sistemes òptics amb modulació d'intensitat i detecció directa (IM/DD) sobre fibra monomode estàndard (SSMF) a la longitud d'ona de 850 nm emprant làsers de cavitat superficial i emissió vertical (VCSEL) com a fonts òptiques. Els resultats de les simulacions sobre un model numèric construït a partir de mesures experimentals, incloent hi una distribució estadística del desalineament entre fibres deguda a connectors òptics, han permès afirmar que els esquemes d'igualació DFE bidireccionals (BiDFE) s'ajusten de manera adequada en aquest escenari, permetent augmentar de forma notable l'abast màxim dels enllaços. Finalment, s'hi ha aplicat el processat d'entrada múltiple i eixida múltiple (MIMO) en un sistema amb multiplexació per divisió modal (MDM) sobre SSMF a 850 nm. Aquesta és la primera vegada que s'apliquen aquestes estructures per a la recepció de senyals amb MDM en aquest escenari de propagació bimodal. Per mitjà de simulacions numèriques, els distints receptors proposats, basats en l'esquema de igualació DFE, han sigut avaluats en la seua capacitat de compensar la interferència entre els distints senyals transmesos, deguda als elements de multiplexació/de-multiplexació (MUX/DEMUX) i als connectors que pot incloure l'enllaç de SSMF amb alta dispersió modal. Els resultats obtinguts mostren el bon rendiment dels dos esquemes MIMO proposats: l'esquema BiDFE amb combinació lineal (MIMO LC-BiDFE), i l'esquema MIMO-DFE amb cancel·lació successiva d'interferència ordenada (MIMO-DFE FC-OSIC). / Medina Sevila, P. (2017). Técnicas de transmisión sobre fibra óptica con dispersión modal [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90414 / TESIS
9

Nuevas técnicas de ensayos no destructivos basadas en ondas mecánicas para la valoración del daño en materiales cementicios

Vázquez Martínez, Santiago 23 April 2021 (has links)
[ES] En la actualidad, una gran cantidad de infraestructuras están compuestas de forma parcial o total de materiales cementicios, siendo el hormigón uno de los materiales cementicios más antiguos y utilizados en la construcción debido a su bajo coste, durabilidad y características mecánicas y estructurales. Pese a sus características, estos materiales están expuestos a diversas condiciones adversas del entorno y sufren procesos de deterioro que afectan a su integridad y seguridad. El reconocimiento de la integridad y seguridad en las estructuras cementicias ha implicado una extensa investigación y el desarrollo de diversas pruebas para verificar su calidad y estado. Mediante la destrucción de una muestra extraída de la estructura, en el caso de los ensayos destructivos (ED), o mediante la inspección de la estructura sin necesidad de dañarla o alterar sus propiedades, en el caso de los ensayos no destructivos (END). Existen multitud de técnicas END que tratan de caracterizar estas estructuras sin dañarlas, siendo la inspección mediante ultrasonidos una de las más utilizadas en materiales cementicios. Tradicionalmente estas técnicas ultrasónicas se basan en el estudio de las ondas longitudinales (P) y transversales (S), que permiten caracterizar una estructura mediante la realización de múltiples medidas. Sin embargo, existe otro tipo de ondas, formadas por la superposición de los desplazamientos de las partículas de las ondas P y S denominadas ondas guiadas, las cuales permiten inspeccionar una estructura de forma global a partir de una única medida, además de ser capaces de propagarse a grandes distancias manteniendo una buena relación señal-a-ruido en comparación a las ondas P y S. Dentro de las ondas guiadas más utilizadas para inspeccionar materiales cementicios, se encuentran las ondas de Rayleigh y las ondas de Lamb. Las ondas de Rayleigh se propagan en estructuras de gran espesor, mientras que las ondas de Lamb se propagan en placas. Las ondas de Lamb presentan una naturaleza dispersiva y multimodal. Su naturaleza dispersiva implica que las velocidades de fase y grupo de estas ondas depende de la frecuencia, mientras que la naturaleza multimodal implica que existen cada vez más modos de propagación conforme aumenta la frecuencia de excitación. Se pueden excitar y detectar selectivamente los distintos modos de Lamb mediante la incidencia oblicua, es decir, variando la inclinación del transmisor y el receptor. Para ello, existen distintas técnicas de acoplamiento que permiten la incidencia oblicua, como el acoplamiento por cuñas sólidas, el acoplamiento por agua y el acoplamiento por aire. La presente tesis se ha centrado en el estudio de nuevas técnicas de END basadas en ondas guiadas para caracterizar diferentes tipos de daño en los materiales cementicios. Para ello, se han llevado a cabo un número considerable de medidas experimentales basadas en distintas técnicas de acoplamiento para la generación y captación de ondas guiadas. Inicialmente se han analizado materiales homogéneos como los metales, para, posteriormente, utilizar el conocimiento adquirido en dichos materiales y estudiar materiales más heterogéneos como los cementicios. Se han evaluado diferentes tipos de técnicas de acoplamiento junto con diferentes tipos de transductores. Los materiales cementicios se han inspeccionado mediante ondas guiadas ultrasónicas con dos tipos de daño: la carbonatación, estudiando el efecto con probetas de dos capas de mortero, y el envejecimiento de fibras en placas de cemento reforzado con fibra de vidrio (GRC). Se ha demostrado que las ondas guiadas son sensibles a estos daños, obteniendo resultados esperanzadores. Concretamente, las ondas de Rayleigh se han utilizado en el daño por carbonatación debido a su sensibilidad a capas superficiales de degradación, mientras que en el envejecimiento de fibras se han utilizado las ondas de Lamb, por su sensibilidad a defectos a lo largo / [CA] En l'actualitat, una gran quantitat d'infraestructures estan formades totalment o parcialment de materials cementants. El formigó és un dels materials cementants més antics i utilitzats en la construcció degut al seu preu, la seua durabilitat i les seues característiques mecàniques i estructurals. Malgrat la seua durabilitat i característiques, aquests materials estan exposats a diverses condicions adverses de l'entorn i pateixen processos de deterioració que afecten la seua integritat i seguretat. El reconeixement de la integritat i seguretat en les estructures cementants ha implicat una extensa investigació i el desenvolupament de diverses proves per a verificar la seua qualitat i estat. Mitjançant la destrucció d'una mostra de l'estructura en el cas dels assajos destructius, o mitjançant la inspecció de l'estructura sense danyar-la o alterar les seues propietats en el cas dels assajos no destructius. Existeixen multitud de tècniques d'inspecció no destructiva que tracten de caracteritzar aquestes estructures sense danyar-les. La inspecció mitjançant ultrasons és un dels assajos no destructius més utilitzats en materials cementants. Tradicionalment, aquestes tècniques ultrasòniques estan basades en l'estudi de les ones longitudinals (P) i transversals (S), que permeten caracteritzar una estructura mitjançant la realització de múltiples mesures en l'estructura. No obstant, existeixen altres tipus d'ones, formades per la superposició dels desplaçaments de les partícules de les ones P i S, denominades ones guiades, les quals permeten inspeccionar una estructura de manera global a partir d'una única mesura, a més de poder propagar-se a grans distàncies mantenint una bona relació senyal-soroll en comparació a les ones P i S. Dins de les ones guiades més utilitzades per a inspeccionar materials cementants, es troben les ones de Rayleigh i les ones de Lamb. Les ones de Rayleigh es propaguen en estructures de gran grossària, mentre que les ones de Lamb es propaguen en plaques. Les ones de Lamb presenten una naturalesa dispersiva i multimodal. La seua naturalesa dispersiva implica que les velocitats de fase i grup d'aquestes ones depenen de la freqüència, mentre que la naturalesa multimodal implica que apareguen més modes de propagació a l'augmentar la freqüència d'excitació. Es poden excitar i detectar selectivament els diferents modes de Lamb mitjançant la incidència obliqua, és a dir, variant la inclinació del transmissor i el receptor. Existeixen diferents tècniques d'acoblament que permeten la incidència obliqua, com l'acoblament per metacrilat, l'acoblament per aigua i l'acoblament per aire. Aquesta tesi s'ha enfocat en l'estudi de noves tècniques d'assajos no destructius basades en ones guiades (ones de Rayleigh i ones de Lamb) per a caracteritzar diferents tipus de dany en els materials cementants. S'han realitzat un nombre considerable de mesures experimentals basades en diferents tècniques d'acoblament per a la generació i captació d'ones guiades. Inicialment s'han analitzat materials homogenis com els metalls per a, posteriorment, utilitzar el coneixement adquirit en aquests materials i estudiar d'altres més heterogenis com els cementants. Concretament, s'han avaluat diferents tipus de tècniques d'acoblament i diferents tipus de transductors. Els materials cementants s'han inspeccionat mitjançant ones guiades ultrasòniques amb dos tipus de dany o degradació: la carbonatació, estudiant el seu efecte amb provetes de dues capes de morter, i l'envelliment de fibres en plaques de ciment reforçat amb fibra de vidre (GRC). S'ha demostrat que les ones guiades són sensibles a aquests danys, obtenint resultats esperançadors. Concretament, les ones de Rayleigh s'han utilitzat en el dany per carbonatació a causa de la seua sensibilitat a capes superficials de degradació, mentre que en l'envelliment de fibres s'han utilitzat les ones de Lamb, per la seua sensibilitat a defe / [EN] Nowadays, a large number of infrastructures are partially or wholly built with cementitious materials. Concrete is one of the oldest and most popular cementitious materials due to its low cost, durability and remarkable mechanical and structural characteristics. However, if these materials are exposed to different environments and harsh conditions, they suffer damaging processes that affect their integrity and safety. To verify their state and quality, extensive research has been conducted and several tests have been developed, such as destructive testing and non-destructive testing. Destructive testing (DT) requires a sample of the inspected structure while non-destructive testing (NDT) allows the inspection of the structure without altering its properties and without damaging it. There are several NDT techniques that characterize cementitious structures without harming them, such as ultrasonic testing, which is one of the most widely used. This technique is based on the study of longitudinal (P) and shear (S) waves, which enable the characterization of a structure by a point-by-point scan. However, there are another kind of waves, called guided waves, which are composed of the superposition of the P and S wave particle displacements. Unlike P and S waves, guided waves allow a global inspection of a structure from a single transducer position and they are able to propagate over long distances with a good signal-to-noise ratio. Rayleigh and Lamb waves are the most frequently used guided waves in NDT of cementitious materials. Rayleigh waves propagate in thick structures while Lamb waves propagate in plate-like structures. Lamb waves are dispersive (their phase and group velocities depend on frequency) and multimodal (as frequency increases, many propagation modes with different velocities exist in the received signal). Lamb wave modes can be selectively excited and detected by means of oblique incidence, i.e., by varying the inclination of the transmitting and receiving transducers. Different coupling techniques can be used to change the inclination of the transducers, such as the contact technique with angle beam wedge transducers, water coupling and air coupling. This thesis has been focused in the study of new NDT techniques based on guided waves (Rayleigh and Lamb waves) to characterize different types of damage of cementitious materials. For this goal, a significant number of experimental arrangements based on different coupling techniques have been carried out. Firstly, homogeneous materials as metals have been analized, because they are a reference in guided wave testing. After performing different experiments in metals, the acquired knowledge has been used to inspect heterogeneous materials as cementitious ones. Different coupling techniques (variable angle wedges, immersion testing, fixed angle wedges, ...) with different types of transducers (contact transducers, immersion transducers and air-coupled transducers) have been employed. Cementitious materials with two damaging processes have been inspected by means of guided waves: two-layered mortar specimens to study carbonation and glass-fibre reinforced cement (GRC) plates to study fiber ageing. This thesis demonstrates that guided waves are sensitive to these damaging processes and the obtained results are encouraging. Specifically, Rayleigh waves have been used to detect carbonation due to its sensitivity to surface layers, while Lamb waves have been used to detect fiber ageing due to its sensitivity to defects along the thickness of the GRC plates. / La investigación realizadaen esta tesis se ha financiado con las siguientes ayudas y proyectos concedidos por el gobierno español: Ayudas para contratos predoctorales para la formación de doctores 2015 (BES-2015-071958); Nuevas aplicaciones de ensayos no destructivos basados en ondas mecánicas para la evaluación de la degradación en materiales cementantes (BIA2014-55311-C2-2-P); Desarrollo y aplicación de ensayos no destructivos basados en ondas mecánicas para la evaluación y monitorización de reología y autosanación en materiales cementantes (BIA2017-87573-C2) / Vázquez Martínez, S. (2021). Nuevas técnicas de ensayos no destructivos basadas en ondas mecánicas para la valoración del daño en materiales cementicios [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/165531 / TESIS
10

Kernel Methods for Nonlinear Identification, Equalization and Separation of Signals

Vaerenbergh, Steven Van 03 February 2010 (has links)
En la última década, los métodos kernel (métodos núcleo) han demostrado ser técnicas muy eficaces en la resolución de problemas no lineales. Parte de su éxito puede atribuirse a su sólida base matemática dentro de los espacios de Hilbert generados por funciones kernel ("reproducing kernel Hilbert spaces", RKHS); y al hecho de que resultan en problemas convexos de optimización. Además, son aproximadores universales y la complejidad computacional que requieren es moderada. Gracias a estas características, los métodos kernel constituyen una alternativa atractiva a las técnicas tradicionales no lineales, como las series de Volterra, los polinómios y las redes neuronales. Los métodos kernel también presentan ciertos inconvenientes que deben ser abordados adecuadamente en las distintas aplicaciones, por ejemplo, las dificultades asociadas al manejo de grandes conjuntos de datos y los problemas de sobreajuste ocasionados al trabajar en espacios de dimensionalidad infinita.En este trabajo se desarrolla un conjunto de algoritmos basados en métodos kernel para resolver una serie de problemas no lineales, dentro del ámbito del procesado de señal y las comunicaciones. En particular, se tratan problemas de identificación e igualación de sistemas no lineales, y problemas de separación ciega de fuentes no lineal ("blind source separation", BSS). Esta tesis se divide en tres partes. La primera parte consiste en un estudio de la literatura sobre los métodos kernel. En la segunda parte, se proponen una serie de técnicas nuevas basadas en regresión con kernels para resolver problemas de identificación e igualación de sistemas de Wiener y de Hammerstein, en casos supervisados y ciegos. Como contribución adicional se estudia el campo del filtrado adaptativo mediante kernels y se proponen dos algoritmos recursivos de mínimos cuadrados mediante kernels ("kernel recursive least-squares", KRLS). En la tercera parte se tratan problemas de decodificación ciega en que las fuentes son dispersas, como es el caso en comunicaciones digitales. La dispersidad de las fuentes se refleja en que las muestras observadas se agrupan, lo cual ha permitido diseñar técnicas de decodificación basadas en agrupamiento espectral. Las técnicas propuestas se han aplicado al problema de la decodificación ciega de canales MIMO rápidamente variantes en el tiempo, y a la separación ciega de fuentes post no lineal. / In the last decade, kernel methods have become established techniques to perform nonlinear signal processing. Thanks to their foundation in the solid mathematical framework of reproducing kernel Hilbert spaces (RKHS), kernel methods yield convex optimization problems. In addition, they are universal nonlinear approximators and require only moderate computational complexity. These properties make them an attractive alternative to traditional nonlinear techniques such as Volterra series, polynomial filters and neural networks.This work aims to study the application of kernel methods to resolve nonlinear problems in signal processing and communications. Specifically, the problems treated in this thesis consist of the identification and equalization of nonlinear systems, both in supervised and blind scenarios, kernel adaptive filtering and nonlinear blind source separation.In a first contribution, a framework for identification and equalization of nonlinear Wiener and Hammerstein systems is designed, based on kernel canonical correlation analysis (KCCA). As a result of this study, various other related techniques are proposed, including two kernel recursive least squares (KRLS) algorithms with fixed memory size, and a KCCA-based blind equalization technique for Wiener systems that uses oversampling. The second part of this thesis treats two nonlinear blind decoding problems of sparse data, posed under conditions that do not permit the application of traditional clustering techniques. For these problems, which include the blind decoding of fast time-varying MIMO channels, a set of algorithms based on spectral clustering is designed. The effectiveness of the proposed techniques is demonstrated through various simulations.

Page generated in 0.084 seconds