• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 37
  • 3
  • Tagged with
  • 174
  • 41
  • 36
  • 31
  • 26
  • 24
  • 19
  • 18
  • 17
  • 16
  • 14
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Técnicas de procesamiento de EEG para detección de eventos

Bermúdez Cicchino, Andrea Noelia 02 January 2014 (has links)
La electroencefalografía (EEG) es una técnica no invasiva que sirve para caracterizar la actividad eléctrica del cerebro. En la actualidad existe un creciente interés en el desarrollo de técnicas digitales de procesamiento para interpretar dichas señales, estas técnicas consisten en transformar la información contenida en las señales de EEG en datos numéricos y/o gráficos que faciliten su análisis y sistematización. El objetivo de la presente tesis es el estudio y la aplicación de diferentes técnicas de procesamiento de EEG a casos típicos como la detección no supervisada de ritmos cerebrales, de potenciales relacionados a la ejecución de movimientos y crisis epilépticas. Para el procesamiento de las señales de EEG se utilizaron las técnicas de Transformada de Fourier, procesamientos tiempo-frecuencia como la Transformada de Gabor y la Transformada Wavelet, y diferentes mediciones de la entropía de la señal, como la entropía dependiente del tiempo, la entropía espectral y la entropía multirresolución.
72

Algoritmos matemáticos y computacionales para la detección automática de señales sísmicas

Sabbione, Juan Ignacio 19 February 2013 (has links)
Este trabajo de Tesis tiene por objetivo general dar soluciones a diferentes problemas relacionados con la detección automática de señales sísmicas. Dichos problemas incluyen el picado de los tiempos de los primeros arribos en exploración sísmica, la detección y determinación de los tiempos de llegada de fases de terremotos en registros de estaciones sismológicas, y la declaración y picado de los arribos de eventos en registros de microsismicidad. Para ello, se estudian diversos atributos sísmicos convencionales y no convencionales diseñados para realzar la llegada de las señales de interés por sobre el ruido de fondo de los datos. A partir de estos atributos se proponen nuevos algoritmos, estrategias y métodos para detectar las señales buscadas de forma eficiente, automática y precisa. En particular, se analiza la dimensión fractal de la traza sísmica, se aclaran algunas suposiciones teóricas e hipótesis que deben realizarse al considerar una traza sísmica como una curva fractal, y se evalúan distintas estrategias para estimar su dimensión. A partir de ejemplos con datos sintéticos y reales, se prueba que la dimensión fractal obtenida a través del método del variograma es un atributo que evidencia claramente la transición entre el ruido y la señal con ruido. Se desarrollan también tres nuevos métodos para detectar los tiempos de los primeros arribos en registros sísmicos complejos de forma automática. Los atributos en los que se basan estos nuevos algoritmos están dados por un cociente de energías, por la entropía de la traza sísmica, y por su dimensión fractal, aprovechando en este último caso los resultados del análisis previo. Los cambios detectados en los atributos son realzados mediante la aplicación de un filtro de suavizado que preserva los saltos bruscos. Estos algoritmos determinan los primeros arribos analizando las trazas sísmicas individualmente. Se introduce luego un novedoso proceso de corrección de picados erróneos que considera simultáneamente todo el conjunto de las trazas pertenecientes a un mismo registro de disparo común teniendo en cuenta la alineación aproximada de los primeros arribos dada por el modelo de refracción. Este procedimiento permite además descartar las trazas malas de forma automática. Los métodos propuestos son luego mejorados y aplicados a un gran volumen de datos reales provistos por la industria que presentan distintos desafíos y dificultades. Para estudiar la detección de señales en sismología, se realiza un análisis comparativo entre ocho métodos V de detección automática de fases de terremotos. El conjunto de ocho métodos analizado está formado por la adaptación de los tres algoritmos desarrollados para picar primeros arribos, por tres métodos tradicionales, y por dos métodos obtenidos a partir de modificaciones a dos de los métodos tradicionales. El estudio es llevado a cabo utilizando registros obtenidos en la Estación Sismológica de La Plata (LPA). Como resultado, se realiza una valoración relativa de los ocho métodos de detección en la que algunos de ellos se destacan por sobre otros, y se obtienen así herramientas computacionales para realizar la detección automática de fases de terremotos en estaciones sismológicas. Por último, se seleccionan tres de estos ocho métodos y a partir de ellos se genera una nueva metodología para detectar microsismos de forma automática que consta de dos pasos. En el primer paso se detectan y determinan todos los tiempos de aquellos eventos que representan un potencial arribo de un microsismo, traza por traza en todo el registro. En el segundo paso, se utiliza un criterio que analiza todo el registro en su conjunto para declarar la presencia de microsismos. Como resultado se obtienen el número de microsismos declarados, un indicador de confianza asociado a cada uno de ellos, y los tiempos de llegada para aquellas trazas en las que el evento es detectado.
73

Catálogo de candidatas a supercáscaras de hidrógeno neutro en la parte externa de la Vía Láctea

Suad, Laura Andrea 24 April 2014 (has links)
El medio interestelar (MIE) no sólo no es homogéneo sino que además posee una compleja topología que se manifiesta por la presencia de una variedad de estructuras tales como arcos, gusanos, cáscaras y supercáscaras. En particular, las supercáscaras se encuentran entre los objetos más enigmáticos e interesantes del MIE de una galaxia. Las mismas se detectan mayoritariamente en la emisión de la distribución de hidrógeno neutro (HI) como mínimos en la emisión de HI rodeados, total o parcialmente, por ”paredes” de mayor emisión. Las supercáscaras pueden expandirse a velocidades de varias decenas de kilómetros por segundo. Con tiempos dinámicos de vida del orden de decenas de millones de años, las supercáscaras sobrevivirían a las estrellas de gran masa que pudieran haberle dado origen (si ese hubiese sido el mecanismo que las originó), por lo que las mismas podrían ser usadas como registros fósiles para estudiar los efectos de formación estelar en la Vía Láctea. En esta Tesis se ha realizado un nuevo catálogo de candidatas a supercáscaras utilizando una combinación de un método automático de detección más uno visual. Una particularidad que tiene nuestro algoritmo de búsqueda automática es que es capaz de detectar estructuras que no están completamente cerradas, o sea, que no están completamente rodeadas por paredes de emisión de HI. Este hecho permitió estudiar el porcentaje de estructuras que tienen su lado ”abierto” hacia al halo de la Galaxia, lo cual convertiría a estas estructuras en candidatas a objetos identificados como ”chimeneas” galácticas. Se han detectado un total de 575 estructuras en la parte externa de la Galaxia a las cuales se les han determinado algunos parámetros físicos como por ejemplo: las distancias, dimensiones, edades dinámicas, velocidades radiales de los centroides, rangos de velocidades donde se detectan. A cada estructura se le ajustó una elipse la cual tiene como parámetros los semiejes mayor y menor y el ángulo de inclinación del semieje mayor con respecto al plano de la Galaxia. Se ha determinado la distribución de las supercáscaras en la Vía Láctea, así como también las principales propiedades estadísticas de los parámetros (tamaños lineales, velocidades de expansión, distancias galactocéntricas, dimensiones, edades dinámicas) encontrados para las mismas. Se ha comparado el catálogo obtenido con catálogos similares realizados por otros autores. También se ha analizado la posible presencia, en el interior de las estructuras, de objetos estelares que pudieron haberle dado origen. Por último se estudió en detalle una de las estructuras catalogadas, GS 100-02-41, la cual presenta evidencia de formación estelar inducida.
74

Análisis y Detección de Características Faciales Usando Aprendizaje Estadístico

Sanhueza Riveros, Oscar Alfonso January 2008 (has links)
En el mundo de hoy, muchas aplicaciones requieren interactuar automáticamente con sus usuarios, y la necesidad de que estas aplicaciones puedan conseguir de forma automática información acerca del usuario hacen que la clasificación de características faciales sea muy importante. Así, estos módulos de clasificación se pueden ocupar en múltiples y diversas aplicaciones. El objetivo general del presente trabajo es la clasificación de características faciales usando algoritmos de aprendizaje estadístico, esto significa poder detectar y clasificar el mayor número posible número de características que se pueden encontrar en una cara usando solo ejemplos de imágenes de estas mismas, sin utilizar a priori ninguna información de las características dadas. En el presente trabajo se desarrollaron detectores y clasificadores de las características que se consideran más significativas, y en general, las primera en que una persona se fija al ver un rostro, así es como se decidió construir clasificadores de barba, bigotes y lentes que distinguieran si una persona en una foto posee o no barba, bigotes y/o lentes. Además de estas características más visuales, se desarrolló un clasificador de edades en cuatro tramos, niños, jóvenes, adultos y ancianos, que lograra dar como respuesta, usando su confidencia, el grado de certeza de la clasificación. Como objetivo secundario pero no menos importante, se desarrollo un detector de bocas, que entrega la posición central de la boca en las caras detectadas. Excelentes resultados se reportaron en la detección de boca, con tasas de detección superiores al 99% y errores comparables al error proveniente del marcado manual de las bocas. El clasificador de lentes obtuvo también excelentes resultados, con tasas de detección del 95% para bases de datos con ambientes controlados y del orden del 90% para bases con ambientes no controlados. Clasificadores de barbas y bigotes luego de usar el detector de boca obtuvieron muy buenos resultados, con tasa de detección por sobre el 95% en bases de datos con ambientes no controlados. Por su parte, la nueva arquitectura diseñada para el clasificador de edad, que ocupa la información de las confidencias para da una respuesta más general, funciono de buena forma, aunque podrían hacerse mejoras en este último punto. Se concluyó finalmente que los clasificadores Adaboost elegidos en este trabajo para hacer las clasificaciones reportan excelentes resultados, y no se duda que puedan también hacerlo en otros tipos de aplicaciones de similares características. Comparando con otros trabajos, se ha visto que el trade-off entre las tasas de detección y el tiempo de clasificación son excelentes. Ambas características ocupadas Rectangulares y LPBm reportan resultados positivos en distintos tipos de clasificadores, así, ninguno de las dos se descarta al momento de hacer un nuevo clasificador.
75

Estimación de la distribución espacial de evapotranspiración usando imágenes satelitales de temperatura de suelo. Validación en la cuenca alta del río Elqui

Yarad Zaror, José Tomás January 2018 (has links)
Ingeniero Civil / El trabajo de título realizado consiste en estimar la distribución espacial de evapotranspiración del cultivo de referencia en la cuenca alta del río Elqui, IV Región de Coquimbo, usando imágenes de temperatura de suelo generadas por tres satélites desde 2002 a 2016. La necesidad de realizar la estimación a partir de imágenes satelitales surge debido a la escasa disponibilidad de estaciones meteorológicas, lo cual limita la determinación de variables de interés para la realización de estudios hidrológicos de precisión. Una de estas variables, de alta relevancia para el análisis de ciclos hidrológicos, corresponde a la evapotranspiración, para la que se han desarrollado productos satelitales tales como MOD16, a una resolución de 500 metros cada 16 días, pero cuentan con la limitante de la espacial y temporal, por lo que poder realizar una estimación a nivel diario y en alta resolución de manera remota es una muy buena solución a dicha problemática. El objetivo general consiste en mejorar la resolución espacial y temporal de la estimación de evapotranspiración del cultivo de referencia a través de imágenes satelitales. Para ello se propuso una metodología para estimar la distribución de temperatura media diaria de suelo, mejorar la resolución espacial del producto de temperatura media diaria del suelo entregado por los satélites y se establecieron relaciones entre la temperatura del suelo y la del aire registradas, así mediante el método Penman-Monteith, se estimó la evapotranspiración del cultivo de referencia en la cuenca y se validaron los resultados con las mediciones directas de las diferentes estaciones y con el producto acumulado MOD16 anteriormente nombrado. Posterior a una extensa revisión bibliográfica, se analizó y seleccionó la metodología que permitió distribuir espacialmente la temperatura de suelo medida, se parametrizó la relación entre temperatura del aire registrada y temperatura del suelo, se generó una matriz espacio temporal de valores diarios de evapotranspiración del cultivo referencia, se acumuló la evapotranspiración a nivel anual para obtener promedio anual y mensual. Se obtuvieron como resultados la distribución de temperatura del aire a nivel diario con buena resolución espacial, una matriz de valores de evapotranspiración diaria y acumulada y, por último, mapas de temperatura y evapotranspiración del cultivo de referencia media mensual y anual promedio para los años 2002 a 2016. Los resultados obtenidos con respecto a las mediciones directas presentan un comportamiento similar, pero una mayor dispersión y sobrestiman los medidos in-situ, el error asociado promedio es de un 25%. Al validar con respecto al producto MOD16 se obtienen coeficiente de determinación mayor a 0.5 y en promedio mayor a 6.5.
76

Estudio de Métodos para Detección y Seguimiento de Rostros Frontales en Imágenes Digitales: Transformada Elíptica Lineal y Moldes PSO

Aravena Cereceda, Carlos Marcelo January 2009 (has links)
La detección y localización de rostros es una de las áreas de investigación más activa en el ámbito del procesamiento digital de imágenes, debido a que es un componente principal para muchos sistemas de identificación y seguimiento de rostros, así como también para aplicaciones con interfaces hombre-máquina. Esto, apoyado por las predicciones de un fuerte crecimiento en el mercado biométrico mundial, hacen que sea de gran relevancia la búsqueda de nuevos métodos de detección de rostros, más rápidos y precisos, que se adapten de manera robusta a ambientes y condiciones complejas. En particular, está demostrado que las aplicaciones de reconocimiento de rostros dependen en gran medida de la exactitud con que se realiza su localización, motivo por el cual, es necesario contar con métodos que permitan un mayor grado de certeza en la estimación de la posición del rostro. En esta tesis, se estudiaron dos nuevos métodos que apuntan a resolver de mejor manera este problema. El primero de ellos permite obtener información precisa acerca del rostro, como son su posición, excentricidad, tamaño y rotación coronal. Este método, basado en la Transformada Elíptica Lineal (LET), asocia una elipse al rostro y funciona transformando el contorno semi elíptico inferior de la cara en un borde vertical en el espacio de salida. La detección de dicho borde, permite estimar los parámetros de la elipse que se ajusta de mejor manera al rostro. La metodología fue probada sobre las bases de datos de Purdue, Caltech, FERET y Yale-B, obteniendo tasas de localización 98.2 %, 95.3 %, 95.7 % y 79.6 % respectivamente. La segunda parte de este trabajo consistió en estudiar la optimización de moldes direccionales mediante la utilización de enjambres de partículas (Particle Swarm Optimization). La optimización tuvo por objetivo el mejorar el desempeño y selectividad de los moldes y el disminuir el tiempo de procesamiento, a la vez de estudiar el efecto de generar moldes personalizados para un individuo o situación particular. Los resultados muestran una leve mejora sobre los moldes originales de un 2 % a 3 % en las tasas de localización, pero con una reducción de 40 % en el tiempo de cálculo y una mucho mayor selectividad, lo que los hace más robustos. Las tasa de localización sobre la base de datos de Yale-B es de aproximadamente un 82 %. También, se probó la eficacia del método al ser usado en conjunto con un detector de iris para estimar la posición de los ojos en imágenes estáticas de la base de datos de Purdue, obteniéndose tasas de detección de iris por sobre el 98 % para criterios de error muy exigentes. Ambas metodologías fueran comparadas con el detector internacionalmente utilizado propuesto por Viola y Jones, obteniendo tasas de localización muy similares. En el caso de Yale-B los métodos propuestos en esta Tesis son ampliamente superiores, demostrando su robustez frente a condiciones extremas de iluminación y contraste.
77

Detección Automática y Caracterización de Patrones de Husos Sigma en Registros Polisomnográficos de Niños

Causa Morales, Leonardo Andrés January 2012 (has links)
El objetivo de este trabajo de tesis fue desarrollar un sistema de detección automática y de caracterización de patrones Husos Sigma (HS) en registros polisomnográficos de niños sanos, sin la necesidad del conocimiento previo de la evolución temporal de los estados y etapas de sueño durante la noche (hipnograma). La identificación automática de patrones de sueño permite una adecuada clasificación de los estados y etapas de sueño, y además se asocian con procesos fisiológicos importantes tales como: normal desarrollo del sistema nervioso central, consolidación de la memoria y plasticidad cerebral. Los HS son uno de los más característicos patrones del EEG durante el sueño, y su aparición marca el inicio de la etapa de sueño quieto 2 (SQ 2). Se definen como trenes de ondas de frecuencia en la banda sigma (10 a 16 Hz) con una duración típica de 0,5 a 2 s, caracterizados por un aumento progresivo de la amplitud sucedido por un descenso gradual de ésta (forma de huso), y normalmente montados sobre ondas más lentas y de mayor amplitud. El sistema de detección desarrollado incorpora técnicas de procesamiento avanzado de señales: descomposición modal empírica (EMD), transformada de Fourier (FFT) y transformada de Hilbert-Huang (HHT), las cuales proveen una adecuada resolución temporal y frecuencial para el análisis del EEG. Además aplica lógica difusa y criterios morfológicos y de duración para emular el procedimiento que realiza el experto en sueño durante la inspección visual de patrones HS. El detector de HS puede ser descrito como un sistema de análisis modular en cascada de 4 módulos, en que se va refinando la detección y precisión del sistema a medida que se avanza en los módulos. El Módulo 1 realiza un estudio del polisomnograma para determinar zonas de análisis compatibles con la presencia de HS en las cuales centrar la detección de candidatos HS. El Módulo 2 utiliza la EMD, la FFT, la HHT y criterios difusos y expertos sobre las zonas del EEG de análisis definidas por el Módulo 1 para la generación de candidatos HS de primera pasada (HSc1). El Módulo 3 es una etapa de eliminación de candidatos basado en características estadísticas de los HSc1: amplitud, frecuencia, simetría y duración; generando los candidatos HS de segunda pasada (HSc2). El Módulo 4 refina el análisis utilizando criterios de duración y de entorno, generando la salida final del sistema, que es la posición inicial y final de cada HS identificado a lo largo del registro EEG. Se construyó una base de datos con 56 registros polisomnográficos de sueño nocturno de niños para la implementación, ajuste, selección y prueba del sistema. La base de datos fue dividida en los conjuntos de entrenamiento: 27 registros, 216 hrs duración y 48.669 HS marcados, validación: 10 registros, 80 hrs duración y 22.443 HS marcados y prueba: 19 registros, 152 hrs duración y 40.412 HS marcados. Los eventos HS fueron marcados por expertos en sueño mediante inspección visual, y estas marcas fueron utilizadas como ground truth para evaluar el desempeño del sistema. Los resultados para el conjunto de prueba en los registros completos de sueño nocturno muestran un 88,2% de sensibilidad, 89,7% de especificidad y una tasa de FP de 11,9%. Considerando sólo los segmentos de SQ 2 en el conjunto de prueba, los resultados mejoran, mostrando un 92,2% de sensibilidad, 90,1% de especificidad y una tasa de FP de 8,9%. En general, el sistema desarrollado presenta resultados muy buenos, los que son comparables con los mejores resultados mostrados en la literatura. Esto es especialmente cierto en los segmentos de SQ 2 donde se obtuvieron los mejores resultados en todos los indicadores estudiados. Además, el sistema no requiere de la generación previa del hipnograma por parte del experto en sueño evitando esta tarea que consume mucho tiempo y requiere de un gran esfuerzo. El sistema implementado se encuentra entre los de mejor rendimiento y es el sistema aplicado sobre la base de datos marcada más grande utilizada en detección de HS en niños hasta la fecha. Por otro lado, el algoritmo es parte integral del sistema Sleep-Analyzer desarrollado como una herramienta de apoyo al trabajo de investigación de los especialistas en sueño.
78

Desarrollo de una Interfaz de Programación para Detección y Seguimiento de Rasgos Faciales

Rodríguez Elorza, Francisco Javier January 2009 (has links)
Este trabajo tiene como objetivo crear una interfaz de programación (API) que detecta la cara y rasgos faciales. A la API se le entrega como entrada una imagen o un video y retorna en tiempo real la posición de la cara y de los ojos. Para todo desarrollo de software es necesaria la utilización de interfaces de programación que faciliten el trabajo sobretodo cuando se haya resuelto un problema común. Un problema común para la creación de interfaces de usuario y otro tipo de proyectos es la detección del rostro humano en conjunto con algunos rasgos faciales como son los ojos. Una dificultad recurrente es que para cada nuevo trabajo se deban implementar los algoritmos de detección y no se dispone de una API que permita al desarrollador preocuparse solamente en las dificultades referentes a la invención que propone, para no tener que una vez más abordar la detección del rostro. En el presente trabajo de título se desarrollo una interfaz de programación que detecta el rostro y rasgos faciales en tiempo real. Para la detección se utilizaron algoritmos de aprendizaje que buscan características rectangulares tanto del rostro como los ojos y se implementó el algoritmo de detección a partir de estas características rectangulares. Además no fue necesaria la utilización de fuentes de luz externas. Se logró procesar en tiempo real un video obtenido por una captura de video y se logró desplegar en pantalla los rostros y ojos detectados por la API. Además se implementó una aplicación que almacena los rostros de personas que atraviesan al frente de una cámara demostrando en gran medida la utilidad de la API. En el futuro se pueden agregar a la API desarrollada nuevos rasgos faciales o también extenderla implementando nuevos algoritmos de detección o hacerla adaptable a casos de detección más complejos.
79

Detección de Anomalías en Procesos Industriales Usando Modelos Basados en Similitud

León Olivares, Alejandro Samir January 2012 (has links)
La detección de anomalías en procesos industriales es un tema de alto impacto que ha sido analizado y estudiado en diversas áreas de la ingeniería e investigación. La mayor parte de los métodos de detección actualmente disponibles posibilitan el estudio de las irregularidades encontradas en el historial de un proceso, ayudando a extraer información significativa (y a veces crítica) en una amplia variedad de aplicaciones, y convirtiéndose de este modo en parta fundamental e integral de esquemas de reducción de costos tanto humanos como económicos en la industria contemporánea. El objetivo general de este trabajo es desarrollar e implementar un enfoque modular de detección de anomalías, aplicable a procesos industriales multivariados y fundado en el análisis de residuos generados a partir de modelos no paramétricos basados en similitud (similarity-based modeling, SBM). La herramienta consiste principalmente de un sistema de generación automática de modelos SBM, una metodología de estudio de eventos y un algoritmo estadístico de detección. El trabajo realizado se enmarca en un proyecto de colaboración conjunta entre las empresas CONTAC, INGENIEROS LTDA. y ENDESA-CHILE. Gracias a esto, ha sido posible evaluar el sistema propuesto utilizando datos de operación correspondientes a una central termoeléctrica de ciclo combinado perteneciente a la segunda empresa ya mencionada. Las comparaciones en cuanto al desempeño del sistema de modelación implementado permiten concluir que el algoritmo es capaz de generar una representación más apropiada del proceso, basado en el error obtenido con la técnica de modelación SBM, la cual es cercana al 25% del error obtenido con la técnica de modelación lineal en los parámetros. Además, la metodología de estudio de eventos permite detectar correctamente las variables que no aportan al objetivo de detección de un evento en particular, así como también identifica las variables más significativas para lograr tal propósito, reduciendo el número de variables analizadas y con esto, los requerimientos de cómputo de operación en línea. La validación de los resultados entregados por el método de detección de anomalías desarrollado, permite aseverar que la utilización de modelos no-paramétricos tipo SBM, en combinación con la metodología de estudio de eventos y el algoritmo estadístico de detección, resultan eficaces a la hora de generar alarmas y detectar las anomalías estudiadas.
80

Aplicación de Técnicas de Aprendizaje de Máquinas para la Detección de Husos Sigma en Señales de Sueño

Marinkovic Gómez, Andrés Segundo January 2012 (has links)
El estudio de señales de sueño es de gran importancia para evaluar la calidad del sueño de los individuos y para investigar las funciones que éste realiza. En ese sentido, resulta interesante desarrollar métodos automáticos que analicen las señales de sueño, ya que en la actualidad dicho análisis es desarrollado generalmente por un experto, lo que resulta tedioso, debido a la longitud de los registros. Dentro del análisis que se puede realizar a las señales de sueño, está la detección de husos sigma (HS), que corresponden a un patrón particular que aparece en el electro encéfalo grama durante las fases 2, 3 y 4 de estado conocido como sueño quieto. El principal objetivo de este trabajo es desarrollar un sistema capaz de detectar automáticamente candidatos de HS en señales de sueño. Se desea que el sistema sea comparable con la salida de los módulos 1 y 2 de un sistema implementado por Leonardo Causa en el Departamento de Ingeniería Eléctrica, los cuales utilizan la potencia espectral de tres bandas de frecuencia, la transformada de Hilbert-Huang, la descomposición modal empírica y criterios difusos para llevar a cabo la detección. El sistema planteado en este trabajo utiliza una novedosa herramienta llamada gráficos de recurrencia. Dicha herramienta permite construir, a partir de un trozo de la señal del sueño, un gráfico en dos dimensiones, el cual describe la periodicidad de dicho trozo. Luego, mediante mediciones a este gráfico, es posible extraer características numéricas que describen ciertas propiedades de aquel trozo de la señal. Además de las características deducidas del gráfico se agregan otras, obtenidas directamente del segmento de señal y relacionadas con otros atributos de los HS, como su duración y magnitud. Todos estos atributos se combinan mediante una red neuronal, la cual determina si el trozo sobre el cual se calcularon los atributos corresponde o no a un huso sigma. Así, se plantea el problema de detección de HS como un problema de clasificación. Se dividen los datos en tres conjuntos: entrenamiento, validación y prueba. El conjunto de entrenamiento y validación es utilizado en principio para desarrollar el método planteado, determinado cuáles de sus variantes entregan mejores resultados. Posteriormente, los parámetros de este sistema se ajustan utilizando los mismos conjuntos de validación y entrenamiento, evaluando el desempeño del sistema frente a diferentes combinaciones de parámetros. Luego, estos mismos conjuntos de entrenamiento y validación son utilizados para entrenar el modelo. Posteriormente se utiliza el conjunto de prueba para comparar el desempeño del sistema implementado en este trabajo con el desempeño de los módulos 1 y 2 del sistema original. Los resultados sobre el conjunto de prueba, el cual incluye cuatro pacientes, muestran un desempeño similar entre ambos sistemas. El sistema planteado obtiene una tasa de verdaderos positivos (TPR) de 80,8% y una tasa de falsas detecciones (FDR) de 81,9%. El sistema original obtiene una TPR de 79,5% y una FDR de 85,7%. Se observa que una sección en la mitad de la curva ROC (acrónimo de Receiver Operator Characteristic), calculada para el sistema implementado, es estrictamente mejor que los módulos 1 y 2 del sistema original, para los datos utilizados. Es posible que un híbrido de ambos métodos de origen a un método de mejor desempeño, ya que la información aportada por cada método parece ser complementaria. Se define, por ende, un método apropiado de detección de HS. Algunas de las características introducidas por este método resultan bastante adecuadas para este problema, por lo que podrían ser usadas y mejoradas en futuras investigaciones.

Page generated in 0.0582 seconds