Spelling suggestions: "subject:"processado"" "subject:"procesados""
11 |
Caracterización de medidas de regularidad en señales biomédicas. Robustez a outliersMolina Picó, Antonio 03 September 2014 (has links)
Los sistemas fisiológicos generan señales eléctricas durante su funcionamiento. Estas
señales pueden ser registradas y representadas, constituyendo un elemento
fundamental de ayuda al diagnóstico en la práctica clínica actual. Sin embargo,
la inspección visual no permite la extracción completa de la información contenida
en estas señales. Entre las técnicas de procesamiento automático, destacan los
métodos no lineales, específicamente aquellos relacionados con la estimación de la
regularidad de la señal subyacente. Estos métodos están ofreciendo en los ´últimos
años resultados muy significativos en este ´ámbito. Sin embargo, son muy sensibles
a las interferencias en las señales, ocurriendo una degradación significativa de su
capacidad diagnostica si las señales biomédicas están contaminadas. Uno de los
elementos que se presenta con cierta frecuencia en los registros fisiológicos y que
contribuye a esta degradación de prestaciones en estimadores no lineales, son los
impulsos de cortad duración, conocidos en este contexto como spikes.
En este trabajo se pretende abordar la problemática asociada a la presencia de
spikes en bioseñales, caracterizando su influencia en una serie de medidas concretas,
para que la posible degradación pueda ser anticipada y las contramedidas
pertinentes aplicadas. En concreto, las medidas de regularidad caracterizadas son:
Approximate Entropy (ApEn), Sample Entropy (SampEn), Lempel Ziv Complexity
(LZC) y Detrended Fluctuation Analysis (DFA). Todos estos métodos han
ofrecido resultados satisfactorios en multitud de estudios previos en el procesado
de señales biomédicas. La caracterización se lleva a cabo mediante un exhaustivo
estudio experimental en el cual se aplican spikes controlados a diferentes registros
fisiológicos, y se analiza cuantitativa y cualitativamente la influencia de dichos
spikes en la estimación resultante.
Los resultados demuestran que el nivel de interferencia, así como los parámetros de
las medidas de regularidad, afectan de forma muy variada. En general, LZC es la
medida más robusta del conjunto caracterizado frente a spikes, mientras que DFA
es la más vulnerable. Sin embargo, la capacidad de discernir entre clases permanece
en muchos casos, a pesar de los cambios producidos en los valores absolutos de
entropía. / Molina Picó, A. (2014). Caracterización de medidas de regularidad en señales biomédicas. Robustez a outliers [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/39346
|
12 |
Aplicación de técnicas de iluminación y procesado de imagen para la detección y medición de lesionesMoncho Santonja, María 02 January 2023 (has links)
Tesis por compendio / [ES] En el presente trabajo se realiza un análisis completo de las técnicas de iluminación y registro de imagen desarrollados hasta el momento y que permiten emplear la fluorescencia intrínseca de estructuras biológicas para aumentar la capacidad de identificación, detección y análisis de lesiones y anomalías que puedan presentarse. El trabajo se ha enfocado principalmente en
a) el análisis, validación y desarrollo de técnicas de detección precoz de lesiones asociadas al Carcinoma Escamoso Epidermoide (oncología otorrinolaringológica), así como posibles lesiones precursoras y
b) el análisis y desarrollo de una metodología que permita registrar imágenes de fluorescencia y cuantificar mediante la aplicación de técnicas de procesado de imagen la afección provocada por el Acné Vulgaris (dermatología).
Se proponen nuevas formas de adquisición, registro y procesado de imágenes de fluorescencia que mejoran de forma objetiva la capacidad de detección y gestión de las anteriores patologías.
El desarrollo de la Tesis ha dado lugar a varios resultados. Parte de los resultados se han estructurado en forma de artículos de investigación y trabajos publicados en revistas JCR. Así, la tesis se va a desarrollar por Compendio de Artículos, incluyéndose:
a) Artículo de Investigación 1 publicado en revista JCR. Segmentation methods for acne vulgaris images: Proposal of a new methodology applied to fluorescence images.
b) Artículo de Investigación 2 publicado en revista JCR. Hough Transform Sensitivivy Factor Calculation Model Applied to the Analysis of Acné Vulgaris Skin Lesions.
c) Artículo de Investigación publicado en Congreso Internacional. Analysis of segmentation methods for acne vulgaris images. Proposal of a new methodology applied to fluorescence images.
d) Estudio Observacional (modalidad de ensayo clínico para técnicas no invasivas) con DICTAMEN FAVORABLE para su realización con fecha 29 de Septiembre de 2022. El Estudio Observacional ha sido evaluado por los miembros del Comité Ético de Investigación con medicamentos del Departamento Arnau de Vilanova-Llíria. A causa de la pandemia causada por la COVID-19, la ejecución del trabajo se ha visto pospuesta y se iniciará en el último trimestre de 2022. Título: ANÁLISIS DE IMÁGENES DE AUTOFLUORESCENCIA PARA SU USO POTENCIAL COMO SISTEMA NO INVASIVO EN LA DETECCIÓN DE LESIONES ORALES POTENCIALMENTE MALIGNAS.
De forma adicional a los trabajos publicados, se ha redactado en forma de review (susceptible de ser publicado) el estado del arte que ha permitido desarrollar el OBJETIVO ESPECÍFICO 3. Se adjunta como Artículo de Investigación susceptible de publicación en revista JCR. Título: Segmentation of acne vulgaris images algorithms.
La ejecución del Estudio Observacional se plantea como la línea de investigación a seguir y que da continuidad a la investigación iniciada en la presente Tesis Doctoral.
El documento de Tesis está estructurado en 7 capítulos y 11 Anexos. Para el desarrollo del presente trabajo se han planteado tres objetivos específicos. Cada artículo o trabajo publicado se corresponde con el desarrollo de cada uno de los tres objetivos específicos. Así, cada uno de los capítulos 3, 4 y 5 plantea el escenario, desarrollo y conclusiones obtenidas que han dado como resultado cada uno de los trabajos publicados de forma independiente. / [CAT] En el present treball es realitza una anàlisi completa de les tècniques d'il·luminació i registre d'imatge desenvolupats fins al moment i que permeten emprar la fluorescència intrínseca d'estructures biològiques per a augmentar la capacitat d'identificació, detecció i anàlisi de lesions i anomalies que puguen presentar-se. El treball s'ha enfocat principalment en
a) l'anàlisi, validació i desenvolupament de tècniques de detecció precoç de lesions associades al Carcinoma Escatós Epidermoide (oncologia otorrinolaringològica), així com possibles lesions precursores i
b) l'anàlisi i desenvolupament d'una metodologia que permeta registrar imatges de fluorescència i quantificar mitjançant l'aplicació de tècniques de processament d'imatge l'afecció provocada per l'Acne Vulgaris (dermatologia).
Es proposen noves formes d'adquisició, registre i processament d'imatges de fluorescència que milloren de manera objectiva la capacitat de detecció i gestió de les anteriors patologies.
El desenvolupament de la Tesi ha donat lloc a diversos resultats. Part dels resultats s'han estructurat en forma d'articles d'investigació i treballs publicats en revistes JCR. Així, la tesi es desenvoluparà per Compendi d'Articles, incloent-se:
a) Article d'Investigació 1 publicat en revista JCR. Segmentation methods for acne vulgaris images: Proposal of a new methodology applied to fluorescence images.
b) Article d'Investigació 2 publicat en revista JCR. Hough Transform Sensitivivy Factor Calculation Model Applied to the Analysis of Acné Vulgaris Skin Lesions.
c) Article d'Investigació publicat en Congrés Internacional. Analysis of segmentation methods for acne vulgaris images. Proposal of a new methodology applied to fluorescence images.
d) Estudi Observacional (modalitat d'assaig clínic per a tècniques no invasives) amb DICTAMEN FAVORABLE per a la seua realització amb data 29 de Setembre de 2022. L'Estudi Observacional ha sigut avaluat pels membres del Comité Ètic d'Investigació amb medicaments del Departament Arnau de Vilanova-Llíria. A causa de la pandèmia causada per la COVID-19, l'execució del treball s'ha vist posposada i s'iniciarà en l'últim trimestre de 2022. Títol: ANÁLISIS DE IMÁGENES DE AUTOFLUORESCENCIA PARA SU USO POTENCIAL COMO SISTEMA NO INVASIVO EN LA DETECCIÓN DE LESIONES ORALES POTENCIALMENTE MALIGNAS.
De manera addicional als treballs publicats, s'ha redactat en forma de review (susceptible de ser publicat) l'estat de l'art que ha permés desenvolupar l'OBJECTIU ESPECÍFIC 3. S'adjunta com a Article d'Investigació susceptible de publicació en revista JCR. Títol: Segmentation of acne vulgaris images algorithms.
L'execució de l'Estudi Observacional es planteja com la línia d'investigació a seguir i que dona continuïtat a la investigació iniciada en la present Tesi Doctoral.
El document de Tesi està estructurat en 7 capítols i 11 Annexos. Per al desenvolupament del present treball s'han plantejat tres objectius específics. Cada article o treball publicat es correspon amb el desenvolupament de cadascun dels tres objectius específics. Així, cadascun dels capítols 3, 4 i 5 planteja l'escenari, desenvolupament i conclusions obtingudes que han donat com a resultat cadascun dels treballs publicats de manera independent. / [EN] In the present work, a complete analysis is made of the illumination and image recording techniques developed so far that allow the use of intrinsic fluorescence of biological structures to increase the capacity of identification, detection and analysis of lesions and anomalies that may occur. The work has focused mainly on
a) the analysis, validation and development of techniques for the early detection of lesions associated with Squamous Epidermoid Carcinoma (otorhinolaryngological oncology), as well as possible precursor lesions, and
b) the analysis and development of a methodology for recording fluorescence images and quantifying the condition caused by Acne Vulgaris (dermatology) through the application of image processing techniques.
New ways of acquisition, registration and processing of fluorescence images are proposed to objectively improve the capacity of detection and management of the previous pathologies.
The development of the Thesis has led to several results. Part of the results have been structured in the form of research articles and papers published in JCR journals. Thus, the thesis is going to be developed by Compendium of Articles, including:
a) Research Article 1 published in JCR journal. Segmentation methods for acne vulgaris images: Proposal of a new methodology applied to fluorescence images.
b) Research Article 2 published in JCR journal. Hough Transform Sensitivity Factor Calculation Model Applied to the Analysis of Acne Vulgaris Skin Lesions.
c) Research Article published in International Congress. Analysis of segmentation methods for acne vulgaris images. Proposal of a new methodology applied to fluorescence images.
d) Observational study (clinical trial modality for non-invasive techniques) with FAVORABLE OPINION for its realization on September 29, 2022. The Observational Study has been evaluated by the members of the Ethics Committee for Research with Medicines of the Arnau de Vilanova-Llíria Department. Due to the pandemic caused by COVID-19, the execution of the work has been postponed and will start in the last quarter of 2022. Title: ANALYSIS OF AUTOFLUORESCENCE IMAGES FOR POTENTIAL USE AS A NON-INVASIVE SYSTEM IN THE DETECTION OF POTENTIALLY MALIGNANT ORAL LESIONS.
In addition to the published works, the state of the art that has allowed the development of SPECIFIC OBJECTIVE 3 has been written in the form of a review (susceptible of being published). It is attached as a Research Article susceptible of being published in a JCR journal. Title: Segmentation of acne vulgaris images algorithms.
The execution of the Observational Study is proposed as the line of research to be followed and which gives continuity to the research initiated in the present Doctoral Thesis.
The Thesis document is structured in 7 chapters and 11 Annexes. Three specific objectives have been set for the development of this work. Each article or published work corresponds to the development of each of the three specific objectives. Thus, each of the chapters 3, 4 and 5 presents the scenario, development and conclusions obtained that have resulted in each of the works published independently. / Moncho Santonja, M. (2022). Aplicación de técnicas de iluminación y procesado de imagen para la detección y medición de lesiones [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/191027 / Compendio
|
13 |
Tonal description of music audio signalsGómez Gutiérrez, Emilia 25 July 2006 (has links)
Aquesta tesi doctoral proposa i avalua un enfocament computacional per a la descripció automàtica dels aspectes tonals de la música a partir de l'anàlisi de senyals d'-audio polifòniques. Aquests mètodes es centren en el càlcul de descriptors de distribucions de notes, en l'estimació de tonalitat d'una peça, en la visualització de l'evolució del centre tonal o en la mesura de la similitud tonal entre dues peces diferents. Aquesta tesi contribueix substancialment al camp de la descripció tonal mitjançant mètodes computacionals: a) Proporciona una revisió multidisciplinària dels sistemes d'estimació de la tonalitat; b) Defineix una sèrie de requeriments que han de complir els descriptors tonals de baix nivell; c) Proporciona una avaluació quantitativa i modular dels mètodes proposats; d) Justifica la idea de que per a certes aplicacions es poden fer servir mètodes que treballen amb partitures sense la necessitat de realitzar una transcripció automàtica e) Estén la literatura existent que treballa amb música clàssica a altres generes musicals; f) Demostra la utilitat dels descriptors tonals per a comparar peces musicals; g) Proporciona un algoritme optimitzat que es fa servir dins un sistema real per a visualització, cerca i recomanació musical, que treballa amb més d'un milió de obres musicals. / Esta tesis doctoral propone y evalúa un enfoque computacional para la descripción automática de aspectos tonales de la música a partir del análisis de señales de audio polifónicas. Estos métodos se centran en calcular descriptores de distribución de notas, en estimar la tonalidad de una pieza, en visualizar la evolución del centro tonal o en medir la similitud tonal entre dos piezas diferentes.Esta tesis contribuye sustancialmente al campo de la descripción tonal mediante métodos computacionales: a) Proporciona una revisión multidisciplinar de los sistemas de estimación de la tonalidad; b) Define una serie de requerimientos que deben cumplir los descriptores tonales de bajo nivel; c) Proporciona una evaluación cuantitativa y modular de los métodos propuestos; d) Respalda la idea de que para ciertas aplicaciones no es necesario obtener una transcripción perfecta de la partitura, y que se pueden utilizar métodos que trabajan con partituras sin realizar una transcripción automática; e) Extiende la literatura existente que trabaja con música clásica a otros géneros musicales; f) Demuestra la utilidad de los descriptores tonales para comparar piezas musicales; g) Proporciona un algoritmo optimizado que se utiliza en un sistema real para visualización, búsqueda y recomendación musical, que trabaja con mas de un millón de piezas musicales. / This doctoral dissertation proposes and evaluates a computational approach for the automatic description of tonal aspects of music from the analysis of polyphonic audio signals. These algorithms focus on the computation of pitch class distributions descriptors, the estimation of the key of a piece, the visualization of the evolution of its tonal center or the measurement of the similarity between two different musical pieces.This dissertation substantially contributes to the field of computational tonal description: a) It provides a multidisciplinary review of tonal induction systems; b) It defines a set of requirements for low-level tonal features; c) It provides a quantitative and modular evaluation of the proposed methods; d) It contributes to bridge the gap between audio and symbolic-oriented methods without the need of a perfect transcription; e) It extents current literature dealing with classical music to other musical genres; f) It shows the usefulness of tonal descriptors for music similarity; g) It provides an optimized method which is used in a real system for music visualization and retrieval, working with over a million of musical pieces.
|
14 |
Caracterización de los procesos de Inyección-Combustión Diesel mediante visualización y procesado digital de imágenesZapata Pemberthy, Luis Daniel 13 May 2010 (has links)
El objetivo de esta tesis doctoral ha sido el desarrollo de metodologías completas para la caracterización experimental de los procesos de inyección de combustible, evaporación y formación de mezcla, autoencendido y combustión en toberas reales de múltiples orificios de motores Diesel. Para el logro del objetivo se han implementado diferentes técnicas de visualización y se han desarrollado los algoritmos para el procesado automático de las imágenes.
El estudio de visualización del chorro líquido, en instalaciones experimentales de uno o más accesos ópticos amplios, se ha centrado en el análisis del efecto de la configuración opto-electrónica sobre la calidad de las imágenes, y se han diseñado y evaluado nuevos algoritmos de procesado. Como aportación innovadora se ha generalizado el algoritmo de segmentación LRT para el caso de distribuciones no normales.
Para el estudio de la evaporación de chorros, reactivos o inertes, se implementaron las técnicas de Schlieren y Shadowgraph en dos variantes básicas según la disponibilidad de accesos: método de transmisión y método de doble paso. Se realizó un estudio teórico-experimental completo, con la finalidad de precisar las variables que afectan la sensibilidad e identificar las principales fuentes de error en el análisis de la imagen. Los algoritmos propuestos toman como base los de segmentación de chorro líquido con pequeñas modificaciones en el cálculo del nivel digital umbral.
El estudio del autoencendido y combustión se llevó a cabo mediante el registro de la emisión natural de quimioluminiscencia de los radicales CH y OH y de la radiación térmica del hollín. Se analiza en detalle la sensibilidad del método de análisis a la configuración del instrumental de adquisición y se plantea una metodología de análisis basada en el estudio estadístico de las distribuciones espaciales de intensidad. / Zapata Pemberthy, LD. (2010). Caracterización de los procesos de Inyección-Combustión Diesel mediante visualización y procesado digital de imágenes [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8192
|
15 |
Estudio e implementación de algoritmos digitales para la mejora de la resolución temporal en sistemas de tomografía por emisión de positronesMonzó Ferrer, José María 26 September 2012 (has links)
La Tomografía por emisión de positrones (PET, Positron Emission Tomography) es una técnica de diagnóstico médico que se encarga de mostrar imágenes de la distribución de radioisótopos dentro del cuerpo, permitiendo de esta forma observar procesos metabólicos que ocurren en su interior.
Los sistemas PET se encargan de detectar pares de rayos gamma de 511KeV cada uno generados tras la aniquilación de un positrón con un electrón. De cada rayo gamma detectado, obtenemos su energía, la posición en la que el rayo es detectado y el tiempo exacto en el que el evento ha sido detectado. Denominamos tiempo de coincidencia a la diferencia de tiempos entre dos eventos. La resolución temporal de un sistema vendrá determinada por el error temporal cometido en la medida del tiempo de coincidencia. Una mejora en la resolución temporal implica una reducción del ruido de las imágenes generadas en el sistema PET.
Tradicionalmente, las técnicas para la extracción del tiempo de un evento recibido han sido implementadas analógicamente. Estas técnicas permiten alcanzar una resolución temporal muy elevada. Sin embargo, la electrónica usada en las técnicas analógicas está muy adaptada a un detector específico, es compleja y poco configurable. La búsqueda de coincidencias en sistemas con muchos detectores que hacen uso de técnicas analógicas se vuelve un gran problema, pues hace necesario un incremento de la complejidad de la electrónica muchas veces inabordable. Existe una tendencia actual a reducir la electrónica analógica de los sistemas PET sustituyéndola por electrónica digital mediante una temprana digitalización de las señales de los detectores. Por tanto, deben proponerse y estudiarse algoritmos digitales para la extracción de una marca temporal de los eventos detectados. Por el momento, las técnicas digitales actuales no alcanzan las resoluciones temporales de las técnicas analógicas.
El presente estudio se enmarca dentro del ámbito de los discriminadores de tiempo digitales. En
el grupo de investigación, se dispone de un setup de medida con dos detectores de rayos gamma cuyas señales de salida se procesan en un front-end analógico. Las señales resultantes del front-end analógico son digitalizadas en un sistema de adquisición donde se procesan digitalmente. La búsqueda de una mejora en la resolución temporal del sistema y el hecho de que el procesado digital, todavía poco aplicado a los sistemas PET, puede proporcionar grandes mejoras en dicha resolución fueron la motivación inicial de la presente investigación.
Durante la tesis, se proponen diferentes algoritmos digitales para la extracción de la información temporal de los pulsos recibidos. En un primer paso, se realiza un estado del arte a partir del cual se aportan diferentes posibles soluciones al problema. Los algoritmos propuestos están basados en bloques de procesado digital que pueden combinarse entre ellos. Estos algoritmos extraen la información temporal de las señales procesadas haciendo uso de versiones digitales adaptadas y configurables de discriminadores analógicos clásicos junto con bloques digitales que no poseen su análogo analógico. Uno de estos bloques digitales implementado se encarga de aumentar la frecuencia de muestreo mediante interpolación por filtro paso bajo, interpolando por factores x2 y x3 la señal de entrada. Entre los algoritmos analizados, el estudio propone nuevos discriminadores que se basan en hacer un cálculo digital de la carga de los pulsos recibidos, interpolados o no interpolados, obteniendo resultados mejores que con las configuraciones clásicas que trabajan con el pulso directamente adquirido y sin procesar.
Para realizar el estudio del comportamiento de los discriminadores evaluados, se desarrolla una simulación que permite validar todo el sistema PET desde los detectores, generando pulsos lo más realistas posibles; la electrónica analógica, simulada mediante simuladores de tipo SPICE; y a nivel digital, estudiando el comportamiento de los algoritmos propuestos. Los algoritmos son simulados con distintas configuraciones, condiciones de jitter de reloj y ruido.
Por último, todos los algoritmos propuestos son programados en la FPGA del sistema con arquitecturas que trabajan en tiempo real a medida que se vayan detectando eventos. Se definen y llevan a cabo una serie de experimentos que validan en condiciones reales en el setup de medida el funcionamiento de los discriminadores. Las medidas también permiten validar la simulación desarrollada. De esta forma, se dispone de una plataforma de test para futuras mejoras.
Como conclusión final, en el trabajo se demuestra como un adecuado procesado digital de la señal permite mejorar la resolución temporal del sistema de forma considerable. El procesado digital, de gran flexibilidad frente al analógico, junto con el incremento de la velocidad de los dispositivos digitales programables y el incremento de la frecuencia de muestreo y de la integración de los convertidores analógicos-digitales (ADCs, "Analog to digital converters") hacen prever un aumento en el número de sistemas PET con estas características en un futuro no lejano y, por tanto, las soluciones investigadas en trabajos como el aquí presentado proporcionarán un aporte básico y necesario para futuros desarrollos. / Monzó Ferrer, JM. (2012). Estudio e implementación de algoritmos digitales para la mejora de la resolución temporal en sistemas de tomografía por emisión de positrones [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17226
|
16 |
Tecnologías acústicas para la detección de Materia Oscura. Diseño y desarrollo de un detector GeyserFelis Enguix, Iván 04 September 2017 (has links)
Dark matter detectors based on superheated fluids set WIMP-nucleus interaction limits based on registering acoustic signals in combination with the information of other sensors. For this reason, in order to distinguish the background events from those originated by new particle interactions, it is crucial to know the behaviour of the acoustic signal within the detector.
The aim of this Thesis is to study the set of acoustic techniques and technologies necessary for the analysis, characterization and optimization of the different parts that compose a dark matter detector based on superheated fluids. From these studies, we draw conclusions for the design of a Geyser detector.
The research is organized in four Chapters that approach the processes that take place from the bubble generation in the superheated fluid to the discrimination analysis. The study begins in Chapter I, where we study the interaction of WIMPs with matter and the consequent bubble creation and growth. In Chapter II we analyse the acoustic processes from the emitted sound wave in the growth of these bubbles, until they arrive at the sensors, going through the different media of the detector. Chapter III deals with the characterization, design and optimization of the transducers that record these acoustic signals. In Chapter IV, the signal processing techniques are studied in order to extract the greatest amount of information from the different signals of interest, as well as the characteristics of the sources. Finally, in Chapter V, we present the conclusions of these researches for the design and control of the proposed Geyser detector, called MODA-LS. In addition, due to its importance in the increasingly sensitive dark matter searches, we analyse the so-called neutrino sensitivity grounds, both in direct dark matter searches with superheated fluids and indirect searches with neutrino telescopes, in Annexes A and B respectively.
All these activities form a common and unified framework in this new application of acoustics in relation to the detection of astroparticles. More specifically in the dark matter direct detection using superheated liquids. / Lo detectores de materia oscura basados en fluidos sobrecalentados establecen límites de interacción WIMP-núcleo a partir de, entre otros aspectos, las señales acústicas registradas. Por ello, entender los distintos aspectos que puedan influir en dicha señal acústica es crucial para distinguir los eventos que provengan de fondos indeseados respecto a los de interacciones de nuevas partículas.
El objetivo de esta Tesis es abordar el estudio del conjunto de técnicas y tecnologías acústicas necesarias para el análisis, caracterización y optimización de las distintas partes que componen un detector de materia oscura basado en fluidos sobrecalentados. Con ello, se extraen conclusiones para el diseño de un detector Geyser.
La investigación se organiza en cuatro Capítulos que abordan los procesos que tiene lugar desde la generación de burbujas en el fluido sobrecalentado hasta el análisis para su discriminación. El estudio se inicia en el Capítulo I, donde se estudia la interacción de los WIMP con la materia y la consiguiente creación y crecimiento de burbujas. En el Capítulo II se analizan los procesos acústicos que tienen lugar desde se emiten las ondas acústicas en el crecimiento de estas burbujas, hasta que llegan a los sensores, a través de los distintos medios que conforman un detector. En el Capítulo III se aborda la caracterización, diseño y optimización de los transductores que registran estas señales. En el Capítulo IV se estudian las técnicas de procesado de señal para extraer la mayor cantidad de información de las distintas señales de interés, así como de las características de las fuentes que las generan. Por último, en el Capítulo V, se exponen las conclusiones de estas investigaciones para el diseño y control del detector Geyser propuesto, MODA-LS. Adicionalmente, dada su importancia en la cada vez más sensible búsqueda de materia oscura, en los Anexos A y B analizamos los llamados suelos de sensibilidad por neutrinos, tanto en búsqueda directa de materia oscura con fluidos sobrecalentados como indirecta para los telescopios de neutrinos, respectivamente.
Todos estos trabajos conforman un marco común y unificado en esta nueva aplicación de la acústica en lo referente a la detección de astropartículas, y más concretamente en la búsqueda directa de materia oscura con líquidos sobrecalentados. / Els detectors de matèria fosca basats en fluids sobreescalfats estableixen els límits d'interacció WIMP-nucli a partir de, entre altres aspectes, les senyals acústiques registrades. Llavors, entendre els aspectes que puguin influir en aquesta senyal acústica és crucial per a distingir els esdeveniments provinents de fons no desitjats respecte als de interaccions de noves partícules.
L'objectiu d'aquesta Tesis és abordar l'estudi del conjunt de tècniques i tecnologies acústiques necessàries per a l'anàlisi, caracterització i optimització de les distintes parts que conformen un detector de matèria fosca basat en fluids sobreescalfats. Amb això, s'extrauen conclusions per al disseny d'un detector Geyser.
La investigació s'organitza en quatre Capítols que aborden els processos que tenen lloc des de la generació de bombolles en el fluid sobreescalfat fins a l'anàlisi per a la seva discriminació. L'estudi s'inicia en el Capítol I, amb la interacció dels WIMP amb la matèria i la consegüent creació i creixement de bombolles. Al Capítol II s'analitzen els processos acústics que tenen lloc des que s'emeten les ones acústiques en el creixement d'aquestes bombolles fins que arriben als sensors, a través dels diferents medis que conformen un detector. Al Capítol III es tracta la caracterització, disseny i optimització dels transductors que registren aquests senyals. Al Capítol IV s'estudien les tècniques de processat de senyal per extreure la major quantitat d'informació així com de les característiques de les fonts que les generen. Finalment, al Capítol V, s'exposen les conclusions d'aquestes investigacions per al disseny i control del detector Geyser proposat, MODA-LS. Addicionalment, donada la seva importància en la cada vegada més sensible cerca de matèria fosca, en els annexos A i B analitzem els anomenats sòls de sensibilitat per neutrins, tant en cerca directa de matèria fosca amb fluids sobreescalfats com indirecta per als telescopis de neutrins, respectivament.
Tots aquests treballs conformen un marc comú i unificat d'aquesta nova aplicació de l'acústica pel que fa a la detecció d'astropartícules i més concretament en la detecció directa de matèria fosca amb líquids sobreescalfats. / Felis Enguix, I. (2017). Tecnologías acústicas para la detección de Materia Oscura. Diseño y desarrollo de un detector Geyser [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86282
|
17 |
Simplification, approximation and deformation of large modelsParadinas Salsón, Teresa 13 October 2011 (has links)
The high level of realism and interaction in many computer graphic applications requires techniques for processing complex geometric models. First, we present a method that provides an accurate low-resolution approximation from a multi-chart textured model that guarantees geometric fidelity and correct preservation of the appearance attributes. Then, we introduce a mesh structure called Compact Model that approximates dense triangular meshes while preserving sharp features, allowing adaptive reconstructions and supporting textured models. Next, we design a new space deformation technique called *Cages based on a multi-level system of cages that preserves the smoothness of the mesh between neighbouring cages and is extremely versatile, allowing the use of heterogeneous sets of coordinates and different levels of deformation. Finally, we propose a hybrid method that allows to apply any deformation technique on large models obtaining high quality results with a reduced memory footprint and a high performance. / L’elevat nivell de realisme i d’interacció requerit en múltiples aplicacions gràfiques fa que siguin necessàries tècniques pel processament de models geomètrics complexes. En primer lloc, presentem un mètode de simplificació que proporciona una aproximació precisa de baixa resolució d'un model texturat que garanteix fidelitat geomètrica i una correcta preservació de l’aparença. A continuació, introduïm el Compact Model, una nova estructura de dades que permet aproximar malles triangulars denses preservant els trets més distintius del model, permetent reconstruccions adaptatives i suportant models texturats. Seguidament, hem dissenyat *Cages, un esquema de deformació basat en un sistema de caixes multi-nivell que conserva la suavitat de la malla entre caixes veïnes i és extremadament versàtil, permetent l'ús de conjunts heterogenis de coordenades i diferents nivells de deformació. Finalment, proposem un mètode híbrid que permet aplicar qualsevol tècnica de deformació sobre models complexes obtenint resultats d’alta qualitat amb una memòria reduïda i un alt rendiment.
|
18 |
Técnicas de procesado y representación de la señal de voz para el reconocimiento del habla en ambientes ruidososHernando Pericás, Francisco Javier 07 May 1993 (has links)
El comportamiento de los sistemas actuales de reconocimiento del habla se degrada rápidamente en presencia de ruido de fondo cuando las etapas de entrenamiento y de test no pueden llevarse a cabo en las mismas condiciones ambientales. El propósito de esta tesis es el estudio y la aplicación al reconocimiento automático del habla en ambientes ruidosos de nuevas representaciones de la señal de voz que sean robustas por sí mismas al ruido y reflejen exactamente las diferencias fonéticas entre espectros de voz. De forma natural, la estrecha relación existente entre el tipo de representación de la señal y la medida de distancia idónea para confrontar los vectores de parámetros ha conducido también al estudio de distancias en esta tesis.Para la evaluación de las técnicas propuestas se ha utilizado un sistema de reconocimiento de palabras aisladas mediante modelos ocultos de Markov. El hecho de que el sistema sea de palabras aisladas permite prescindir de las implicaciones de los niveles de conocimiento superiores al acústico: sintáctico, semántico, pragmático,... Por otro lado, los modelos ocultos de Markov son los que en estos momentos proporcionan unas mejores prestaciones en todos los sistemas en desarrollo.La aportación fundamental de esta tesis es la introducción de la predicción lineal de la parte causal de la secuencia de autocorrelación de la señal de voz como una técnica de parametrización robusta del habla en presencia de ruido. Esta técnica está estrechamente relacionada con la representación SMC y con el uso de un sistema sobredeterminado de ecuaciones de Yule-Walker. Su uso en reconocimiento de habla ruidosa es muy interesante debido a su simplicidad, su eficiencia computacional y sus altas tasas de acierto, que superan ampliamente a las técnicas mencionadas y a la clásica predicción lineal sobre la señal en condiciones severas de ruido. A partir de un estudio comparativo de distintas técnicas en el caso de ruido blanco y ruido real, se han extraído las siguientes conclusiones fundamentales: es preferible el uso de un orden de predicción relativamente alto y ventanas cepstrales crecientes para desenfatizar los coeficientes de orden inferior; las representaciones instantáneas de la señal son menos robustas que a las dinámicas, por lo cual resulta de gran utilidad el uso de parámetros regresivos; el etiquetado múltiple supera ampliamente en prestaciones a la cuantificación vectorial clásica; y, finalmente, la representación cepstral basada en la predicción lineal de la parte causal de la autocorrelación alcanza excelentes resultados en condiciones severas de ruido y es menos sensible a los factores anteriores que la predicción lineal clásica. / The performance of existing speech recognition systems degrades rapidly in the presence of background noise when training and testing cannot be done under the same ambient conditions, even in the case of isolated word recognition with small vocabularies.In order to develop a speech recognizer that operates robustly and reliably in the presence of noise, a novel parameterization technique called OSALPC (One-Sided Autocorrelation Linear Predictive Coding) is proposed in this Ph.D. dissertation. This technique, closely related with the SMC (Short-Time Modified Coherence) representation and with the use of an overdetermined set of Yule-Walker equations proposed by Cadzow to seek rational models, is essentially an AR modeling of the causal part of the speech autocorrelation, that has the same poles than the speech signal itself. OSALPC performs better than standard LPC (Linear Predictive Coding) in terms of signal-to-noise ratio improvement due to the fact that the spectrum of the autocorrelation sequence, the square of the spectral envelope, strongly enhances the highest power frequency bands and attenuates the noise components lying outside those enhanced bands. Its use in noisy speech recognition is very interesting because of its simplicity, computational efficiency and high recognition accuracy. The application of this technique to recognize isolated words in a multispeaker task is reported in this Ph.D. dissertation using a speech recognition system based on the HMM (Hidden Markov Models) and VQ (Vector Quantization) approaches in the presence of additive white noise and in real noisy car environment.The combination of the OSALPC parameterization with several robust techniques is explored: 1) optimization of prediction order and cepstral liftering (particularly, a relatively high prediction order and a monotonically increasing lifter with the quefrency are preferable), 2) cepstral projection distance measure (only in the case of additive white noise), 3) use of energy and dynamic features and 4) independent multilabeling VQ of each feature. Regarding the latest case, a simple multilabeling method has been introduced as a deterministic version of the well known semicontinuous HMM approach using the fuzzy VQ rule, with degree of fuzziness equal to 2, to indicate the closeness of each codeword to the input vector of speech parameters.Excellent results have been achieved in severe noisy conditions. Concretely, in the case of real noisy car enviroment, from a recognition accuracy of 58.2 % in the baseline recognizer, a recognition rate of 95 % has been reached by aplying those techniques.
|
19 |
Characterization and processing of atrial fibrillation episodes by convolutive blind source separation algorithms and nonlinear analysis of spectral featuresVayá Salort, Carlos 28 June 2010 (has links)
Las arritmias supraventriculares, en particular la fibrilación auricular (FA), son las enfermedades cardíacas más comúnmente encontradas en la práctica clínica rutinaria. La prevalencia de la FA es inferior al 1\% en la población menor de 60 años, pero aumenta de manera significativa a partir de los 70 años, acercándose al 10\% en los mayores de 80. El padecimiento de un episodio de FA sostenida, además de estar ligado a una mayor tasa de mortalidad, aumenta la probabilidad de sufrir tromboembolismo, infarto de miocardio y accidentes cerebrovasculares. Por otro lado, los episodios de FA paroxística, aquella que termina de manera espontánea, son los precursores de la FA sostenida, lo que suscita un alto interés entre la comunidad científica por conocer los mecanismos responsables de perpetuar o conducir a la terminación espontánea de los episodios de FA.
El análisis del ECG de superficie es la técnica no invasiva más extendida en la diagnosis médica de las patologías cardíacas. Para utilizar el ECG como herramienta de estudio de la FA, se necesita separar la actividad auricular (AA) de las demás señales cardioeléctricas. En este sentido, las técnicas de Separación Ciega de Fuentes (BSS) son capaces de realizar un análisis estadístico multiderivación con el objetivo de recuperar un conjunto de fuentes cardioeléctricas independientes, entre las cuales se encuentra la AA. A la hora de abordar un problema de BSS, se hace necesario considerar un modelo de mezcla de las fuentes lo más ajustado posible a la realidad para poder desarrollar algoritmos matemáticos que lo resuelvan. Un modelo viable es aquel que supone mezclas lineales. Dentro del modelo de mezclas lineales se puede además hacer la restricción de que estas sean instantáneas. Este modelo de mezcla lineal instantánea es el utilizado en el Análisis de Componentes Independientes (ICA). / Vayá Salort, C. (2010). Characterization and processing of atrial fibrillation episodes by convolutive blind source separation algorithms and nonlinear analysis of spectral features [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8416
|
20 |
Procesado, modelización y caracterización de mezclas industriales de SEBS con materiales con cambio de fase (PCM) para la mejora del confort térmico en aplicaciones de ortopedia y puericulturaJuárez Varón, David 19 September 2011 (has links)
El sector de puericultura y ortopédico son sectores de gran relevancia, donde aspectos como el confort, adaptabilidad, calidez, etc. adquieren sentido. Los cauchos basados en silicona líquida (LSR) son clave en estos sectores, ofreciendo interesantes propiedades tanto a nivel técnico como de percepción positiva por parte del usuario. No obstante, la transformación de estos materiales es algo más compleja que el conjunto de plásticos de uso común y además, debido a su naturaleza reticular, resulta un material difícil de reciclar.
El proceso de inyección es un proceso de conformado de los materiales poliméricos termoplásticos que representa una notable importancia económica y tecnológica.
Bajo estas premisas, el objetivo principal de este trabajo de investigación es el desarrollo de materiales para el sector ortopédico - puericultura a partir del empleo de materiales de naturaleza reticular reversible (elastómeros termoplásticos) que puedan procesarse mediante técnicas de inyección convencionales y que sean capaces de aportar una buena inercia térmica para confort, mediante el empleo de materiales microencapsulados con cambio de fase (PCMs).
Para ello, se plantea un conjunto de mezclas de un sistema basado en dos grados comerciales de elastómero termoplástico de SEBS (copolímero en bloque de estireno-etileno/butileno-estireno) con durezas extremas. Ello conlleva el planteamiento de objetivos parciales como la caracterización reológica del sistema (desarrollando un modelo de predicción de comportamiento mediante software de simulación), la modelización del comportamiento mecánico de las mezclas, la optimización del procesado de las mezclas aditivadas con PCMs (analizando la respuesta mecánica y térmica) y el estudio de la inercia térmica de las mismas para la mejora del confort de estos materiales y su potencial empleo en los sectores industriales mencionados, como sustitutos en las aplicaciones de la silicona líquida inyectada. / Juárez Varón, D. (2011). Procesado, modelización y caracterización de mezclas industriales de SEBS con materiales con cambio de fase (PCM) para la mejora del confort térmico en aplicaciones de ortopedia y puericultura [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11551
|
Page generated in 0.1583 seconds