• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 24
  • Tagged with
  • 171
  • 171
  • 81
  • 80
  • 55
  • 47
  • 29
  • 27
  • 18
  • 16
  • 14
  • 13
  • 13
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Diseño y construcción de una plataforma de clasificación de texto basada en textmining aplicada sobre una red de blogs para Betazeta Networks S.A

López Aravena, Camilo Alberto January 2012 (has links)
Ingeniero Civil Industrial / Ingeniero Civil en Computación / Betazeta Networks S.A. es una empresa dedicada a la publicación de información mediante una red de blogs de diversas temáticas. A corto plazo, la empresa necesita visualizar cómo se distribuye el contenido actual para tomar decisiones estratégicas respecto al mercado que enmarca los contenidos que publican. En el mediano plazo, la empresa emitirá contenido generado por los usuarios, el cual debe ser revisado para mantener la calidad de cada Blog. Para esto se requiere contar con métodos automáticos de clasificación para dichos mensajes, los cuales serán revisados por periodistas expertos en diferentes áreas. El trabajo realizado en esta memoria constituye un prototipo que apunta a resolver la problemática de la empresa. Para ello se construye una plataforma de procesamiento de texto, denominada Tanalyzer, que permite manejar grandes volúmenes de información, visualizar, clasificar y hacer predicciones sobre las temáticas de nuevos documentos utilizando text-mining, sub área de la minería de datos especializada en texto, implementando el modelo de tópicos generativo Latent Dirichlet Allocation. Las pruebas realizadas al software son satisfactorias. Sobre un modelo que maneja 8 temáticas, cada una asociada a uno de los 8 blogs de la empresa que se encuentran bajo estudio, es posible predecir documentos con un 80% de precision y 64% de recall, lo que demuestra la viabilidad de la aplicación. Actualmente, la solución permite escalar tanto en velocidad como en costos. Con un tiempo de ejecución de 2.5 horas para 300.000 documentos, permite entrenar en ese tiempo un mes de publicaciones a una tasa de 1250 artículos enviados diariamente repartidos en 8 blogs, frente a la tasa actual de publicación de 12.5 artículos diarios por blog. Entrenar 10 veces un modelo de esta magnitud representa para la empresa un costo de $USD 17 utilizando los servicios de Amazon Cloud Computing. Si bien los resultados obtenidos son positivos y la memoria cumple sus objetivos a cabailidad, existen múltiples mejoras realizables a la plataforma que constituyen el trabajo futuro de esta investigación y que deben ser consideradas por la empresa para llevar a cabo una implementación en producción. Por un lado es posible mejorar aún más los tiempos de ejecución y por otra parte se debe solucionar la disminución de recall cuando la cantidad de temáticas y la especificidad de éstas aumenta.
122

Desarrollo de una herramienta gráfica de exploración de robots con ROS

Schkolnik Müller, Demian Aley January 2015 (has links)
Ingeniero Civil en Computación / ROS, un middleware para robots, ofrece gran variedad de herramientas para su utilización. Sin embargo, carece de una importante herramienta: Algo que permita visualizar de forma dinámica sus componentes, y poder así entender sistemas complejos de mejor forma. Esta memoria consistió en desarrollar una herramienta, que es capaz de visualizar, mediante un grafo, un sistema completo creado en ROS, pudiendo ver cuáles son sus distintos componentes y cómo interactúan. Además, la herramienta incluye la opción de visualizar tres tipos de mensajes comunes presentes en ROS. El trabajo se realizó en el lenguaje de programación Smalltalk, y usando el ambiente de desarrollo Pharo. Para las visualizaciones se utilizó el motor de visualizaciones Roassal, basado en Pharo. El trabajo se dividió en cuatro grandes etapas. La primera etapa consistió en un trabajo de investigación, haciendo una revisión de las herramienta a usar en el desarrollo, junto a un análisis de los mensajes comunes de ROS y como se representaban. Esto sería usado en la segunda etapa. La segunda etapa consistió en el desarrollo de una API, que permitiera comunicación entre Pharo y ROS. Para ello se hizo uso de las herramientas de consola presentes en ROS. Junto a la API, se desarrollaron una serie de tests, a modo de robustecer la API frente a posibles cambios en ROS. La tercera etapa consistió en la creación del grafo general de ROS. Este grafo nos muestra el sistema completo creado en ROS, indicándonos también de qué forma interactúan los componentes entre ellos. En esta etapa, la comunicación con ROS se hace exclusivamente a través de la API implementada en la segunda etapa. La cuarta y última etapa consistió en la creación de las visualizaciones para tres mensajes comunes de ROS. Estas visualizaciones son dinámicas, es decir, cambian en tiempo real cuando los mensajes cambian. El presente trabajo presenta primero el estudio previo, explicando las herramientas, lenguajes y funcionalidades que se usarán en el desarrollo. Esta sección también incluye información de herramientas similares existentes, y explica las falencias de éstas y la justificación de la creación de una nueva herramienta. La segunda parte de este trabajo contiene el desarrollo de la herramienta, comenzando por la API, para luego seguir con el grafo general y las visualizaciones. A modo de conclusión, la herramienta creada presenta una manera eficaz y usable de explorar robots creados con ROS, y fue creada de manera modular y extensible, generando algunas visualizaciones de ejemplo. Puede servir como base para un trabajo futuro, que genere más visualizaciones así como también incluya un sistema de inserción de mensajes.
123

Estructuras de datos sucintas para recuperación de documentos

Valenzuela Serra, Daniel Alejandro January 2013 (has links)
Magíster en Ciencias, Mención Computación / La recuperación de documentos consiste en, dada una colección de documentos y un patrón de consulta, obtener los documentos más relevantes para la consulta. Cuando los documentos están disponibles con anterioridad a las consultas, es posible construir un índice que permita, al momento de realizar las consultas, obtener documentos relevantes en tiempo razonable. Contar con índices que resuelvan un problema como éste es fundamental en áreas como recuperación de la información, minería de datos y bioinformática, entre otros. Cuando el texto que se indexa es lenguaje natural, la solución paradigmática corresponde al índice invertido. Sin embargo, los problemas de recuperación de documentos emergen también en escenarios en que el texto y los patrones de consulta pueden ser secuencias generales de caracteres, como lenguajes orientales, bases de datos multimedia, secuencias genómicas, etc. En estos escenarios los índices invertidos clásicos no se aplican con el mismo éxito. Si bien existen soluciones que requieren espacio lineal en este escenario de texto general, el espacio que utilizan es un problema importante: estas soluciones pueden utilizar más de 20 veces el espacio de la colección. Esta tesis presenta nuevos algoritmos y estructuras de datos para resolver algunos pro- blemas fundamentales para recuperación de documentos en colecciones de texto general, en espacio reducido. Más específicamente, se ofrecen nuevas soluciones al problema de document listing con frecuencias, y recuperación de los top-k documentos. Como subproducto, se de- sarrolló un nuevo esquema de compresión para bitmaps repetitivos que puede ser de interés por sí mismo. También se presentan implementaciones de las nuevas propuestas, y de trabajos relaciona- dos. Estudiamos nuestros algoritmos desde un punto de vista práctico y los comparamos con el estado del arte. Nuestros experimentos muestran que nuestras soluciones para document listing reducen el espacio de la mejor solución existente en un 40%, con un impacto mínimo en los tiempos de consulta. Para recuperación de los top-k documentos, también se redujo el espacio de la mejor solución existente en un 40% en la práctica, manteniendo los tiempos de consulta. Así mismo, mejoramos el tiempo de esta solución hasta en un factor de 100, a expensas de usar un bit extra por carácter. Nuestras soluciones son capaces de retornar los top-10 a top-100 documentos en el orden de milisegundos. Nuestras nuevas soluciones dominan la mayor parte del mapa espacio-tiempo, apuntando a ser el estándar contra el cual comparar la investigación futura.
124

Estudio de patrones geoquímicos regionales en sedimentos de drenaje entre los 19°S y 21°S -I región de Tarapacá, Chile

Barrera Salazar, Jaime Esteban January 2013 (has links)
Geólogo / La zona de estudio se enmarca entre los 19ºS y 21ºS; desde la línea de la costa chilena hasta los 69ºW, I región de Tarapacá y parte de XV región de Arica y Parinacota, Chile. Cubre un área aproximada de 27.500 km2. El objetivo principal es evaluar y definir la existencia de patrones geoquímicos en sedimentos de drenajes a escala regional, desarrollando interpretaciones que expliquen cuáles son los controles determinantes de cada patrón, considerando la diversidad y coexistencia de factores geológicos, climáticos y antrópicos. Las muestras de sedimentos de drenajes utilizadas fueron extraídas en terreno, preparadas en laboratorio y enviadas a análisis geoquímico por los profesionales de la unidad de geoquímica de SERNAGEOMIN durante los años 2010-2012. A los sedimentos de drenaje se les realizó un análisis de composición geoquímica de la fracción fina <180 µm por medio de ICP-MS e ICP-ES, obteniendo las concentraciones para un set de 59 elementos, incluyendo óxidos mayores y elementos trazas. En total, las 1311 muestras utilizadas, conforman una malla de baja densidad con una representación aproximada de 20 Km2 por muestra. La base de datos obtenida no será publicada en este trabajo debido a la calidad inédita de parte importante de los datos (véase Lacassie et al., 2012b). Tras obtener los análisis químicos, en este trabajo, se realizaron cálculos estadísticos básicos y mapas univariables para cada elemento. Adicionalmente se realizó un proceso de clustering y visualización multivariable por medio de la implementación de redes neuronales artificiales, obteniéndose 6 clusters con distintivas características químicas, que posteriormente fueron objeto de interpretaciones. Los resultados muestran una evidente segmentación geoquímica entre las principales unidades geomorfológicas, encontrando una fuerte diferencia entre la Cordillera de la Costa (CC) y el resto de las unidades. Las principales anomalías de la CC corresponden a Ca, S, P, y Se. Los controles determinantes en la geoquímica de la CC corresponden a factores geológicos y climáticos entre los que destacan: el periódico aporte de iones desde el océano pacífico hacia el continente por medio de la camanchaca, la abundancia relativa de los iones transportados, la capacidad de absorción iónica superficial de arcillas, óxidos e hidróxidos; la afinidad química entre elementos y condición climática de hiperaridez prolongada. Los controles determinantes en los patrones presentes en la Depresión intermedia (DI) y Precordillera (PR) corresponden a procesos relacionados con la meteorización y transporte de detritos desde la Cordillera Occidental (CO); y la constante deflación eólica a la que es sometida la DI. Esto conlleva a la generación de patrones antagónicos, que representarían, por un lado, fases mineralógicas abundantes en rocas con mayor diferenciación para aquel patrón dominante en quebradas, y por otro lado, fases densas para aquel patrón que domina en pampas. Se obtiene un patrón asociado a las cotas altas de la CO que refleja la mineralogía de la roca fresca de edificios y secuencias volcánicas; y otro patrón asociado principalmente a sectores con alteración hidrotermal y/o actividad de la industria mineral, distribuido en las distintas unidades geomorfológicas. Adicionalmente se reconocieron 2 quebradas con evidente anomalías, que se sugiere como consecuencia de la intervención humana y la industria minera; esta alteración se expresa fuertemente en la anomalía de Cobre (Cu) río abajo de la faena de HMC ubicada en la Qda. Sagasca y la histórica alteración en la concentración de molibdeno (Mo) que posee la Qda. Guatacondo. Se requiere estudio de detalle para confirmar estas sugerencias. Finalmente, fueron comparadas las concentraciones de metales pesados con estándares internacionales a fin de distinguir posibles zonas con concentraciones riesgosas para organismos vivos; en general los sectores donde ciertos elementos como el arsénico (As), cromo (Cr) y cobre (Cu) tienen valores nocivos para la biota, no se encuentran poblados y tampoco se desarrollan grandes ecosistemas de organismos superiores. Se reconocen factores naturales, como la concentración anómala de As en Qda. Camarones, y factores antrópicos como alteraciones puntuales por la industria minera.
125

Reconocimiento Automático de Bordes en Imágenes Aplicado a Anillos de Árboles

Aguilar Vergara, Pablo Agustín January 2009 (has links)
No description available.
126

Caracterización y detección de contribuyentes que presentan facturas falsas al SII mediante técnicas de data minig

Castellon González, Pamela Andrea January 2012 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / El presente trabajo de título tiene por objetivo identificar patrones de comportamiento de los contribuyentes declarantes de IVA, que transan facturas falsas para evadir impuestos. Para ello se utiliza el proceso KDD, el cual considera una serie de pasos y técnicas que permiten extraer conocimiento oculto a partir de un gran volumen de datos, para encontrar relaciones o patrones asociados a un cierto fenómeno. La utilización y venta de facturas falsas tiene un impacto significativo en la recaudación que percibe el Estado, generando además efectos negativos que ponen en riesgo la competitividad de las empresas. Históricamente, la evasión por este concepto ha representado entre un 20% a un 30% de la evasión en el IVA, alcanzando la cifra de $450 millones de pesos durante la crisis económica de 2009. Adicionalmente, la detección, investigación, sanción y cobro de los impuestos adeudados, provoca un importante costo administrativo, debido a la cantidad de facturas transadas en el año y al tiempo requerido para su detección. En ese contexto, resulta necesario contar con procedimientos sistematizados y efectivos que gestionen la información disponible para detectar potenciales defraudadores de impuestos, focalizando los recursos en aquellos contribuyentes de mayor riesgo tributario. Para la construcción del vector de características se utiliza la información de casos registrados con facturas falsas en el año 2006, considerando información del pago de impuestos en tal período, características particulares, comportamiento histórico en diferentes etapas de su ciclo de vida e indicadores del comportamiento de sus relacionados, entre otros. En una primera instancia, se aplican técnicas de SOM y Gas Neuronal, para analizar el potencial de contribuyentes que tienen un buen o mal comportamiento tributario e identificar sus características más relevantes. Posteriormente, se utilizan Árboles de Decisión, Redes Neuronales y Redes Bayesianas, para identificar aquellas variables que están relacionadas con un comportamiento de fraude y/o no fraude y detectar patrones de conducta, estableciendo en qué medida se pueden predecir estos casos con la información disponible. El resultado indica que las variables que más discriminan entre fraude y no fraude en las micro y pequeñas empresas son el porcentaje de créditos generado por facturas, el resultado de las fiscalizaciones previas, la cantidad de facturas emitidas en el año y su relación con las facturas timbradas en los últimos dos años, el monto de IVA total declarado, la relación entre remanentes y créditos, los delitos e irregularidades históricas asociadas a facturas, y la participación en otras empresas. En las medianas y grandes empresas, en tanto, las variables más relevantes son la cantidad de remanente acumulado, el porcentaje de crédito asociado a facturas, el total de créditos, la relación entre gastos rechazados y activos, el capital efectivo, la cantidad de irregularidades previas asociadas a facturas, la cantidad de fiscalizaciones históricas, y el número de representantes legales. En relación a los modelos predictivos, el mejor resultado se obtuvo con la red neuronal, donde el porcentaje de casos con fraude correctamente asignado fue de un 92% para las micro y pequeñas empresas, y de 89% para las empresas medianas y grandes. De acuerdo a esto y al potencial universo de usuarios de facturas falsas (120.768 empresas), se estima que con los modelos obtenidos se puede generar un potencial de recaudación de $101.446 millones de pesos al año, lo que permitiría reducir la evasión por concepto de IVA de manera significativa. Finalmente, se concluye que es posible caracterizar y predecir contribuyentes que evaden impuestos a través de facturas falsas utilizando técnicas de Data Mining, y que los factores que inciden en la probabilidad que un contribuyente utilice facturas falsas dependen del tamaño o segmento del contribuyente, relación que hasta el momento se establecía sólo de manera intuitiva. Se recomienda, para trabajos futuros, generar nuevas variables de comportamiento históricas relacionadas con fiscalizaciones y cobertura, explorar otros métodos para el preprocesamiento y selección de las variables, con los que eventualmente podrían obtenerse resultados diferentes. Igualmente, sería interesante explorar técnicas de validación cruzada y aplicar otras técnicas de data mining para mejorar la predicción de casos de fraude.
127

Compact data structures for information retrieval on natural languages

Konow Krause, Roberto Daniel January 2016 (has links)
Doctor en Ciencias, Mención Computación / El principal objetivo de los sistemas de recuperación de información (SRI) es encontrar, lo más rápido posible, la mejor respuesta para una consulta de un usuario. Esta no es una tarea simple: la cantidad de información que los SRI manejan es típicamente demasiado grande como para permitir búsquedas secuenciales, por lo que es necesario la construcción de índices. Sin embargo, la memoria es un recurso limitado, por lo que estos deben ser eficientes en espacio y al mismo tiempo rápidos para lidiar con las demandas de eficiencia y calidad. La tarea de diseñar e implementar un índice que otorgue un buen compromiso en velocidad y espacio es desafiante tanto del punto de vista teórico como práctico. En esta tesis nos enfocamos en el uso, diseño e implementación de estructuras de datos compactas para crear nuevos índices que sean más rápidos y consuman menos espacio, pensando en ser utilizados en SRI sobre lenguaje natural. Nuestra primera contribución es una nueva estructura de datos que compite con el índice invertido, que es la estructura clásica usada en SRIs por más de 40 años. Nuestra nueva estructura, llamada {\em Treaps Invertidos}, requiere espacio similar a las mejores alternativas en el estado del arte, pero es un orden de magnitud más rápido en varias consultas de interés, especialmente cuando se recuperan unos pocos cientos de documentos. Además presentamos una versión incremental que permite actualizar el índice a medida que se van agregando nuevos documentos a la colección. También presentamos la implementación de una idea teórica introducida por Navarro y Puglisi, llamada Dual-Sorted, implementando operaciones complejas en estructuras de datos compactas. En un caso más general, los SRI permiten indexar y buscar en colecciones formadas por secuencias de símbolos, no solamente palabras. En este escenario, Navarro y Nekrich presentaron una solución que es óptima en tiempo, que requiere de espacio lineal y es capaz de recuperar los mejores $k$ documentos de una colección. Sin embargo, esta solución teórica requiere más de 80 veces el tamaño de la colección, haciéndola poco atractiva en la práctica. En esta tesis implementamos un índice que sigue las ideas de la solución óptima. Diseñamos e implementamos nuevas estructuras de datos compactas y las ensamblamos para construir un índice que es órdenes de magnitud más rápido que las alternativas existentes y es competitivo en términos de espacio. Además, mostramos que nuestra implementación puede ser adaptada fácilmente para soportar colecciones de texto que contengan lenguaje natural, en cuyo caso el índice es más poderoso que los índices invertidos para contestar consultas de frases. Finalmente, mostramos cómo las estructuras de datos, algoritmos y técnicas desarrolladas en esta tesis pueden ser extendidas a otros escenarios que son importantes para los SRI. En este sentido, presentamos una técnica que realiza agregación de información de forma eficiente en grillas bidimensionales, una representación eficiente de registros de accesos a sitios web que permite realizar operaciones necesarias para minería de datos, y un nuevo índice que mejora las herramientas existentes para representar colecciones de trazas de paquetes de red. / Este trabajo ha sido parcialmente financiado por Millennium Nucleus Information and Coordination in Networks ICM/FIC P10-024F, Fondecyt Grant 1-140796, Basal Center for Biotechnology and Bioengineering (CeBiB) y Beca de Doctorado Nacional Conicyt
128

Autentificación Desmentible en Canales Anónimos

González Ulloa, Alonso Emilio January 2011 (has links)
El problema de comunicación anónima autentificada consiste en diseñar un protocolo que permita intercambiar mensajes entre un conjunto de participantes, de forma tal que cada emisor de un mensaje determina el destinatario de su mensaje y, una vez que se envía el mensaje, éste es efectivamente recibido por el destinatario determinado. La información que revela el protocolo en su ejecución debe mantener el anonimato, es decir debe ser tal que no permite a ningún adversario determinar información relacionada a las identidades de los participantes. El protocolo debe permitir a cada destinatario determinar con exactitud quién es el autor de cada mensaje que recibe, sin que esto contradiga el anonimato. Adicionalmente el protocolo debe mantener las garantías anteriores inclusive si es ejecutado en un ambiente concurrente, es decir es ejecutado con indeterminados otros protocolos. Las aplicaciones de la comunicación anónima autentificada son variadas. Por ejemplo es útil para diseñar sistemas de denuncia anónima de delitos donde adicionalmente se desea discriminar la información recibida según la identidad del que origina el mensaje. Esto puede ser útil si algunos informantes son más creíbles que otros. En este trabajo se plantea el problema de comunicación anónima autentificada y se muestra constructivamente la existencia de un protocolo que resuelve dicho problema. Para ello se estudian tópicos avanzados de Criptografía como Universal Compossability, Generalized Universal Composability, Anonimato, Desmentibilidad y las distintas primitivas criptográficas asociadas a dichos tópicos. Se definen rigurosamente las propiedades que debe tener un protocolo para resolver el problema planteado. Finalmente se diseña un protocolo eficiente para el cual se puede garantizar matemáticamente que satisface las propiedades necesarias para resolver el problema de comunicación anónima autentificada.
129

Aplicación de Técnicas de Aprendizaje de Máquinas para la Detección de Husos Sigma en Señales de Sueño

Marinkovic Gómez, Andrés Segundo January 2012 (has links)
El estudio de señales de sueño es de gran importancia para evaluar la calidad del sueño de los individuos y para investigar las funciones que éste realiza. En ese sentido, resulta interesante desarrollar métodos automáticos que analicen las señales de sueño, ya que en la actualidad dicho análisis es desarrollado generalmente por un experto, lo que resulta tedioso, debido a la longitud de los registros. Dentro del análisis que se puede realizar a las señales de sueño, está la detección de husos sigma (HS), que corresponden a un patrón particular que aparece en el electro encéfalo grama durante las fases 2, 3 y 4 de estado conocido como sueño quieto. El principal objetivo de este trabajo es desarrollar un sistema capaz de detectar automáticamente candidatos de HS en señales de sueño. Se desea que el sistema sea comparable con la salida de los módulos 1 y 2 de un sistema implementado por Leonardo Causa en el Departamento de Ingeniería Eléctrica, los cuales utilizan la potencia espectral de tres bandas de frecuencia, la transformada de Hilbert-Huang, la descomposición modal empírica y criterios difusos para llevar a cabo la detección. El sistema planteado en este trabajo utiliza una novedosa herramienta llamada gráficos de recurrencia. Dicha herramienta permite construir, a partir de un trozo de la señal del sueño, un gráfico en dos dimensiones, el cual describe la periodicidad de dicho trozo. Luego, mediante mediciones a este gráfico, es posible extraer características numéricas que describen ciertas propiedades de aquel trozo de la señal. Además de las características deducidas del gráfico se agregan otras, obtenidas directamente del segmento de señal y relacionadas con otros atributos de los HS, como su duración y magnitud. Todos estos atributos se combinan mediante una red neuronal, la cual determina si el trozo sobre el cual se calcularon los atributos corresponde o no a un huso sigma. Así, se plantea el problema de detección de HS como un problema de clasificación. Se dividen los datos en tres conjuntos: entrenamiento, validación y prueba. El conjunto de entrenamiento y validación es utilizado en principio para desarrollar el método planteado, determinado cuáles de sus variantes entregan mejores resultados. Posteriormente, los parámetros de este sistema se ajustan utilizando los mismos conjuntos de validación y entrenamiento, evaluando el desempeño del sistema frente a diferentes combinaciones de parámetros. Luego, estos mismos conjuntos de entrenamiento y validación son utilizados para entrenar el modelo. Posteriormente se utiliza el conjunto de prueba para comparar el desempeño del sistema implementado en este trabajo con el desempeño de los módulos 1 y 2 del sistema original. Los resultados sobre el conjunto de prueba, el cual incluye cuatro pacientes, muestran un desempeño similar entre ambos sistemas. El sistema planteado obtiene una tasa de verdaderos positivos (TPR) de 80,8% y una tasa de falsas detecciones (FDR) de 81,9%. El sistema original obtiene una TPR de 79,5% y una FDR de 85,7%. Se observa que una sección en la mitad de la curva ROC (acrónimo de Receiver Operator Characteristic), calculada para el sistema implementado, es estrictamente mejor que los módulos 1 y 2 del sistema original, para los datos utilizados. Es posible que un híbrido de ambos métodos de origen a un método de mejor desempeño, ya que la información aportada por cada método parece ser complementaria. Se define, por ende, un método apropiado de detección de HS. Algunas de las características introducidas por este método resultan bastante adecuadas para este problema, por lo que podrían ser usadas y mejoradas en futuras investigaciones.
130

Clasificación de estímulos odorantes mediante señales biológicas

Vizcay Barreda, Marcela Andrea January 2008 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Ingeniero Civil Electricista / El problema de reconocimiento y clasificación de odorantes en forma artificial es de gran relevancia dentro de la industria alimenticia y cosmética, en el área de la salud, en la gestión de residuos y en aplicaciones militares. Determinar los compuestos presentes en una sustancia a través del olfato es un factor importante en los procesos de control y certificación de calidad, así como en la detección precoz de agentes patógenos y la localización de elementos ilegales o nocivos. El objetivo general de esta Tesis es diseñar un modelo de reconocimiento de odorantes basado en una estrategia de reducción de características seguida por un algoritmo clasificador, que utilice como patrones las señales de potencial de campo local, en inglés local field potential (LFP), que corresponden a señales eléctricas neuronales registradas en el bulbo olfativo de ratas. Así se tiene como elemento sensor-transductor la respuesta del sistema olfativo de ratas ante distintos estímulos odorantes. Se desea determinar si es posible discriminar el tipo de estímulo que activa al sistema en cada prueba y comparar las respuestas de este modelo en ratas con deprivación sensorial. Como parte de la metodología, se construyeron 91 bases de datos con 640 patrones cada una, correspondientes a diferentes sitios del bulbo olfativo registrados en varias ratas. Cada elemento de la base de datos es una señal LFP que representa la respuesta en el tiempo del bulbo olfativo ante un estímulo determinado. La etapa de preprocesamiento incluye filtrado, muestreo y normalización de la señal LFP. Se comparó la efectividad de diferentes técnicas de extracción de características (análisis de componentes principales, transformada de Fourier y Wavelet, transformación de Fisher y mapa no lineal de Sammon), de modo que cada patrón sea representado por un número reducido, pero sustancial de atributos. Finalmente se procedió a implementar tres algoritmos de clasificación (un clasificador estadístico, una red neuronal perceptrón multicapa y una máquina de soporte vectorial) con el objeto de comparar la eficiencia de estos clasificadores en la tarea de separación de 4 tipos de estímulos (aire puro, r-carvone, isoamyl-acetato y hexanal). Este trabajo de tesis permitió llegar a dos conclusiones. Primero, la mejor estrategia para lograr un rendimiento aproximado a un 96% para cada clase, es análisis de componentes principales junto a una máquina de soporte vectorial. Como la metodología planteada se aplicó a dos poblaciones de señales, primero en aquellas medidas en sitios del bulbo olfativo de ratas con experiencia sensorial normal y luego en aquellas registradas en sitios del bulbo olfativo de ratas con privación sensorial olfativa temprana fue posible comparar los efectos de la experiencia sensorial en la capacidad del modelo para discriminar entre los cuatro estímulos. Los resultados obtenidos permiten concluir que las señales LFP contienen información suficiente para discriminar entre los 4 estímulos odorantes utilizados en las ratas normales, mientras que, en ratas privadas sensorialmente el desempeño es prácticamente análogo a una clasificación al azar.

Page generated in 0.1136 seconds