• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 265
  • 136
  • 95
  • 12
  • 11
  • 9
  • 3
  • 2
  • Tagged with
  • 530
  • 310
  • 183
  • 144
  • 117
  • 84
  • 84
  • 84
  • 84
  • 80
  • 66
  • 64
  • 58
  • 56
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Desarrollo de Sistemas de Visión en Fútbol Robótico

Dodds Rojas, Ricardo January 2009 (has links)
Ingeniero Civil Electricista / Esta memoria tiene como objetivo diseñar e implementar algoritmos de visión computacional, en diferentes etapas del sistema de visión de un robot que juega fútbol robótico. Dado que por lo general un robot tiene una capacidad de procesamiento limitada, el principal objetivo de esta memoria es mejorar la eficiencia del sistema completo, sin afectar su rendimiento. Las mejoras propuestas consisten básicamente en tres etapas: adaptación del sistema de visión al uso de un lente gran angular, implementación de un perceptor visual del arco de fútbol basado en un clasificador construido a partir de una red neuronal y el diseño de un sistema de procesamiento de imágenes multi-resolución. Para adaptar el sistema de visión al uso de un lente gran angular se utiliza un mapeo desde el espacio de la imagen con gran angular a un espacio que asume proyección plana en la imagen, basado en una transformación polinomial. Los parámetros de este mapeo corresponden a los coeficientes del polinomio de transformación y son determinados a partir de un algoritmo de optimización PSO (Particle Swarm Optimization), que utiliza como función objetivo una medida de distorsión de la imagen mapeada. Para el perceptor del arco se utilizan en una primera etapa una serie de reglas binarias para descartar rápidamente percepciones erróneas. Posteriormente se extraen características de los candidatos que se utilizan como entrada a un clasificador basado en una red neuronal del tipo MLP (Multi Layer Perceptron). Así los candidatos reciben un puntaje de acuerdo a sus características y se escoge el mejor. En el sistema de procesamiento multi-resolución se toma en cuenta el hecho que los objetos más lejanos, y que por lo tanto se ven más pequeños en la imagen, se encuentran cerca del horizonte. A partir de esta premisa se realiza un procesamiento más fino de la imagen en sectores cercanos al horizonte. Dada la naturaleza del trabajo se utilizan distintas herramientas para medir el desempeño de cada parte. Para el caso del mapeo de la imagen se utiliza el error máximo de alineamiento en la imagen resultante de puntos co-lineales en el mundo real, medido a través de la norma de los residuos arrojados por un ajuste de mínimos cuadrados, obteniéndose un error de ajuste máximo de 1,02. Mientras que para medir el rendimiento del perceptor basado en un clasificador se miden: tasa de detecciones correctas y tasa de falsos positivos, encontrándose un 96,5 y 1,5 [%] respectivamente. Finalmente el resultado del algoritmo multi-resolución se evalúa a través del cálculo del máximo número de pixeles recorridos al procesar una imagen, con lo cual se determina que se analizan en el peor de los casos, menos de un tercio de los pixeles que usando el sistema anterior. Los resultados obtenidos muestran que los métodos propuestos tienen un buen desempeño. En cada etapa se aprecia la ventaja de su uso, por lo que se considera el trabajo realizado como una mejora integral al sistema de visión del equipo de fútbol robótico. No obstante, no deja de ser interesante buscar mejores aproximaciones a cada problema y al sistema completo.
272

Redes neuronales aplicadas a la predicción del precio del oro y medición de la robustez de los resultados utilizando Bootstrap

Friz Echeverría, Rodolfo January 2003 (has links)
Este estudio tiene por objeto determinar en una primera parte, la capacidad predictiva des las redes neuronales tanto Rolling como Recursivas en la preedición de signos de la variación del precio del oro, para en una segunda parte determinar si los resultados obtenidos por una de estas redes es robusto en los distintos escenarios económicos o sea si se obtiene la misma predicción de signos bajo diferentes escenarios ficticios, los cuales se simulan con la técnica Bootstrap, para obtener una distribución de los retornos de la técnica.
273

Pronóstico de Caudales de las Cuencas de Betania y Bío-Bío Utilizando Métodos Estadísticos

Court Benvenuto, Sebastián Andrés January 2008 (has links)
El objetivo general del presente trabajo es modelar, explicar y predecir el nivel de caudal de las cuencas de Betania y Bío-Bío, ubicadas en Colombia y Chile respectivamente, con el objeto de mejorar la comprensión del fenómeno y la planificación energética por parte de la empresa ENDESA Chile. ENDESA Chile posee un área de profesionales que dedica parte de su trabajo a modelar y pronosticar los caudales de, entre otras, las cuencas antes mencionadas. Si bien los resultados de dichas predicciones no son insuficientes, se desea mejorar de forma importante la precisión de las mismas; llegando, en lo posible, a un error cercano al 20%. A partir de la información histórica proporcionada por la empresa y de otras fuentes meteorológicas especializadas, se determinaron modelos de dos tipos. En primer lugar, los modelos de series de tiempo usuales, con pequeñas modificaciones, para llevarlos a los conocidos como modelos PAR y PARX. En segundo lugar, se intentó utilizar modelos no lineales de redes neuronales artificiales para explorar las posibles no linealidades que pudiese poseer el problema. Finalmente, se clasificaron los caudales en tres niveles, a modo de resumir la información presentada por los modelos. Para la creación, estimación y calibración de los modelos se utilizaron diversas técnicas estadísticas. Entre ellas destacan el análisis de componentes principales para reducir la dimensionalidad de variables climáticas, el test de normalidad de Shapiro-Wilks y técnicas de calibración y validación de modelos, entre otras. El resultado al comparar los dos tipos de modelos arrojó que, si bien los modelos de redes neuronales entregan mejores resultados en muchas ocasiones, la poca simplicidad y capacidad de explicación que poseen indican que es mejor la alternativa lineal, es decir, los modelos PAR/PARX de series de tiempo. Se concluye que es posible disminuir el error bajo el 20% utilizando técnicas estadísticas de estructura sencilla que permitan explicar y comprender la forma del fenómeno. Se recomienda finalmente, que la empresa ENDESA elija algunas de las alternativas de modelos planteados de acuerdo a sus intereses, es decir, menor error o mayor comprensión.
274

Red de kohonen para determinar la eficiencia del uso de fosfitos en el tratamiento de la enfermedad Phytophthora cinnamomi en plantas de arándanos (Vaccinium corymbosum) cv. Biloxi.

Huayhua Solórzano, Flor de Liz January 2017 (has links)
El documento digital no refiere un asesor / Determina mediante el uso de redes neuronales - Red kohonen la eficiencia que produce las diferentes aplicaciones de fosfitos a nivel foliar y radicular contra la enfermedad Phytopthora Cinnamoni en plantas de arándanos (Vaccinium Corymbosum) - Biloxi. Para lo cual se: se elabora dos cuadros de datos, para analizar el comportamiento del tamaño y el diámetro de las plántulas en las diferentes toma de tiempos, se elabora un cuadro para la toma de datos del tamaño de la raíz, se elabora un cuadro para la toma de datos del peso fresco y seco del follaje, se elabora un cuadro para la toma de datos para el peso seco y fresco de la raíz, se crea un programa en Matlab con uso de redes neuronales - Red kohonen, se crea varias redes con distintas cantidades de clusters, por ejemplo: tamaño de la planta vs diámetro de la planta, tamaño de la planta vs raíz, etc., en cada una de estas se crea la red de kohonen al inicio y al final con 2, 3, 4, y 7 clusters, observando en cada una de ellas la eficiencia de los fosfitos ante los fungicidas. Los resultados de estos grupos son comparados con diferentes grupos de clusters, teniendo así el resultado de la eficiencia del uso de los fosfitos y los fungicidas en las plántulas para este experimento. / Trabajo de suficiencia profesional
275

Neural circuits of the mouse olfactory cortex : linking neural connectivity to behavior / Circuits neuronaux du cortex olfactif murin : relation entre connectivité neuronale et comportement

Vieira, Inês 30 October 2017 (has links)
Comment les odeurs contrôlent-elles le comportement animal ? Dans ma thèse, j'ai utilisé des manipulations optogénétiques et chimiogénétiques in vivo de l'activité neurale combinées à des analyses comportementales pour explorer l'organisation de circuits cérébraux impliqués dans des comportements olfactifs chez la souris. J'ai mis au point un test de conditionnement aversif olfactif indépendant de l'intensité des odeurs. J'ai démontré que les souris pouvaient généraliser une réponse aversive en présentant différentes concentrations d'odeurs. J’ai ensuite testé si les souris pouvaient apprendre cette tâche en inactivant les interneurones exprimant la parvalbumine dans le cortex olfactif (piriforme). J'ai trouvé que l’inactivation des cellules PV, n'était pas suffisante pour abolir l'aversion aux odeurs acquise, ce qui suggère que des composants de circuits neuronaux supplémentaires contribuent à la perception de l'odeur indépendamment de sa concentration. Ensuite, j'ai tenté de comprendre la constitution relative des différentes voies neurales du piriforme dans ce comportement d’aversion apprise. À l'aide d'outils génétiques et viraux, j'ai ciblé des sous-populations distinctes de neurones piriformes, et j'ai constaté que l'activité neurale induite par la lumière dans les cellules du piriforme projetant vers le bulbe olfactif et vers le cortex préfrontal, mais pas dans les cellules du piriforme projetant vers l’amygdale corticale et vers le cortex entorhinal latéral était suffisante pour supporter le conditionnement aversif. Ces résultats contribuent à mieux comprendre les propriétés fonctionnelles des circuits neuronaux corticaux pour l'olfaction. / How do odors control animal behavior ? In my thesis, I have used in vivo optogenetic and chemogenetic manipulations of neural activity combined with behavioral analyses to explore the organization of brain circuits involved in olfactory behaviors in mice. In the first part of the thesis, I established an odor intensity-independent olfactory conditioning task. I demonstrated that mice were able to generalize a learned escape behavior across a range of different odor concentrations. I then tested if by silencing Parvalbumin-expressing interneurons in the olfactory (piriform) cortex, a candidate cell population for mediating odor concentration invariance, mice would fail to learn the task. I found that silencing PV cells was not sufficient to abolish learned aversion, suggesting that additional neural circuit components contribute to concentration-invariant odor perception. Next, I asked whether different piriform neural output pathways differed in their ability to support learned aversion. Using viral-genetic tools, I targeted distinct subpopulations of piriform neurons and I found that light-induced neural activity in only piriform principle cells could drive a behavioral response. Furthermore, I tested the sufficiency of subpopulations of piriform projection neurons to drive learned aversion. I found that photostimulation of olfactory bulb- and prefrontal cortex-projecting piriform neurons was sufficient to support aversive conditioning, but not the photostimulation of cortical amygdala- and lateral entorhinal cortex-projecting piriform neurons. Together, these results provide new insights into the functional properties of cortical neural circuits for olfaction.
276

Metodología para la evaluación de la susceptibilidad de fenómenos de remoción en masa mediante análisis de redes neuronales aplicada en el fiordo Comau, Región de Los Lagos, Chile

Villela Ramírez, Bruno Franco January 2017 (has links)
Geólogo / El presente trabajo tiene como objetivo principal presentar una metodología para la evaluación de susceptibilidad de remociones en masa, y aplicarla en la ladera este del fiordo Comau, región de Los Lagos, Chile. Se trabajó con una escala de 1:25.000 y con una resolución de DEM (Digital Elevation Model) de 30x30. Por otra parte, los condicionantes para el análisis fueron: elevación, pendiente, orientación de ladera, curvatura media, geología, distancia a lineamientos, distancia a fallas, distancia a cursos de agua, distancia a ríos y radiación solar anual, los cuales fueron normalizados. Para la evaluación de susceptibilidad, se ocuparon redes neuronales (Análisis Neural Network ANN) del tipo Multi Layer Perceptron (MLP), con el método de aprendizaje feed forward backpropagation o propagación de error y con el método de convergencia Levenberg-Marquardt. Para llevar a cabo la metodología, el área de estudio se redujo a puntos equiespaciados a 30 metros, se tomaron los puntos de generación de remociones en masa y puntos que no cumplen con las condiciones de remociones en masa, y se le dio diez valores correspondientes al valor de cada factor condicionante normalizado. Asimismo, los puntos del área de estudio quedaron asociados a un valor de los factores condicionantes. Con los puntos de inicio o generación y de zonas con ausencia de remoción en masa, se configuraron matrices para el proceso de entrenamiento, validación y test de la red neuronal. Una vez entrenada la red y corroborado su buen desempeño, se evaluaron los puntos del área de estudio, obteniendo un valor de susceptibilidad para cada uno de ellos, los que fueron categorizados cualitativamente en muy baja, baja, media, alta y muy alta. De acuerdo a los resultados obtenidos de la red, se determinó una correlación entre zonas de alta y muy alta susceptibilidad con elevaciones entre los 800 y 1.600 m s.n.m, pendientes entre los 35° y 70°, orientación de laderas oeste y curvaturas medias cóncavas; mientras que zonas de baja y muy baja susceptibilidad presentaron correlación con elevaciones inferiores a 100 m s.n.m., pendientes menores a 35°, orientación de ladera este, curvaturas medias convexas y planas, y distancia a fallas, lineamientos, cursos de agua y ríos, muy lejanas. Considerando los pesos sinápticos de la capa de entrada, se determinó que los factores que poseían mayor peso eran: elevación, distancia a lineamientos, geología, pendiente, orientación de ladera, distancia a ríos, distancia a fallas, curvatura, radiación y distancia a cursos de agua. Así, se realizaron análisis con los seis factores más importantes, y luego, con tres, lo que demostró que el análisis con diez factores es óptimo, pero un análisis con 6 factores es suficiente, y entrega una buena aproximación de susceptibilidad, además de tener una correlación positiva con los análisis. Por su parte, un análisis con tres factores no presentó una buena aproximación de susceptibilidad. / 19/12/2020
277

Clasificación mediante parámetros instrumentales de la intensidad de Mercalli modificada

Oviedo Vega, Pamela Andrea January 2017 (has links)
Ingeniera Civil / La evaluación de los daños y/o pérdidas en un sitio determinado ocurridos como consecuencia de un terremoto es un tema importante en el ámbito de la ingeniería sísmica. Las escalas de intensidades permiten identificar en primera instancia y en forma rápida el nivel de severidad del movimiento, pero estas son de carácter cualitativo ya que están basadas en la observación y el juicio humano. Por lo anterior, se han buscado relaciones entre los parámetros instrumentales asociados a un movimiento sísmico y las escalas de intensidades. En particular, este trabajo tiene como objetivo principal estimar la Intensidad de Mercalli Modificada (IMM) mediante el uso de parámetros instrumentales utilizando métodos estadísticos tanto de clasificación como de regresión. Además, se busca identificar que variables son las más influyentes en el valor de la escala de la Intensidad de Mercalli Modificada asignado luego de la ocurrencia de un sismo. Para lograr los objetivos de este trabajo se utilizan dos métodos estadísticos que son clasificados dentro de lo que se conoce como Aprendizaje Automático (AA): Redes Neuronales Artificiales (RNA) y Regresión Logística Multinomial (RGM). Los parámetros instrumentales considerados son: Aceleración Máxima de Suelo (PGA), Velocidad Máxima de Suelo (PGV), duración fase fuerte, Intensidad de Arias (Ia), Intensidad Espectral de Housner (SI), Intensidad Instrumental de la Agencia Meteorológica de Japón (IJMA), velocidad absoluta acumulada (CAV), intensidad de cruces por cero (ν), frecuencia central, espectros de respuesta (Sa, Sv y Sd), distancia al hipocentro, profundidad hipocentro y fuente sismogénica. Del desarrollo de este trabajo y el análisis de los resultados obtenidos, se tienen como conclusiones y observaciones principales que el método de RLM presenta un mejor desempeño que RNA. En cuanto a qué parámetros instrumentales son los más influyentes, se obtiene que son: log(PGV), log(PGA), log(Ia), log(SI) e IJMA. El modelo generado mediante RLM ocupando solo estas variables arroja un mayor porcentaje de clasificación que ocupando todos los parámetros. Sin embargo, para ambos métodos el uso de cada variable por separado (las más influyentes) es levemente mejor que utilizar las cinco juntas, siendo la que mejor resultados entrega log(PGV). Por último, de los resultados se observa que el conocimiento a priori del tipo de suelo no es influyente en los resultados.
278

Estudio de la utilización del potencial de información cruzado en el aprendizaje con ensamble de redes neuronales

Saavedra Doren, Pablo Antonio January 2017 (has links)
Ingeniero Civil Eléctrico / El propósito del presente trabajo es estudiar y proponer un método de aprendizaje para los Ensambles de Redes Neuronales basados en la maximización de la Información Mutua Cuadrática entre las salidas de los modelos que componen el Ensamble. En esencia el método propuesto es una función de costo que incluye un término de regularización basado en Información Mutua que se estima a partir del Potencial de Información Cruzado o CIP (Cross Information Potential), además el término de regularización busca favorecer la diversidad entre los modelos del Ensamble. Al método propuesto se le identifica en este trabajo como CIPL (Cross Information Potential Learning). La hipótesis de trabajo es que la utilización de herramientas de Teoría de la Información en la definición de la función de costo de CIPL pueden ayudar a mejorar la precisión y la diversidad del Ensamble comparado con el método basado en correlación negativa propuesto por el método NCL (Negative Correlation Learning) además de ayudar a favorecer más aun la diversidad. La metodología de trabajo incluye primeramente la implementación de una librería desarrollada en el lenguaje de programación Python para poder entrenar modelos de redes neuronales en forma paralela con el fin de poder probar el método de entrenamiento NCL y CIPL. Para evaluar el método de entrenamiento CIPL se realizan pruebas sobre problemas de regresión y clasificación típicos, parte de estas pruebas intentan determinar su comportamiento bajo condiciones de ruido y valores atípicos. Para el caso de CIPL se agregan pruebas sobre los diferentes hiperparámetros que tiene. Los resultados obtenidos muestran que CIPL tiene un desempeño similar que NCL en problemas de clasificación, no así en regresión donde NCL es mucho mejor. En cuanto a los hiperparámetros de CIPL se destaca que la sinergia y la redundancia influyen directamente en la diversidad del Ensamble, incluso permiten obtener mejores niveles de diversidad que NCL. La implementación de CIPL tiene problemas con los tiempos de entrenamiento que aumentan de forma exponencial con la cantidad de muestras y de modelos del Ensamble, por lo que requiere una optimización del código. Por otro lado, aunque la diversidad en el caso de CIPL mejora los resultados, no es posible cuantificar este efecto, por tanto se deja propuesto para trabajos futuros. Además, falta resolver problemas que tiene la implementación de CIPL cuando se trabaja con más de 2 clases.
279

Proyección del Precio del Cobre: ¿Herramientas de Inteligencia Computacional o Series de Tiempo? En Busca de Pronósticos Ajustados para el Precio del Cobre en el Corto y Mediano Plazo.

Foix Castillo, Cristián Isaac January 2007 (has links)
Esta tesis tiene como objetivo la entrega de evidencias respecto a la potencia de las redes neuronales como herramienta para el pronóstico del precio anual del cobre. Con este fin se evaluó el desempeño predictivo, fuera de muestra, de diferentes redes neuronales de tipo multilayer perceptron, construidas sobre la base del precio rezagado del cobre y variables derivadas del mismo, tales como la última variación del precio y la desviación estándar de los últimos periodos. Los resultados conseguidos se contrastaron con los generados mediante la aplicación de los más tradicionales y exitosos modelos de series de tiempo (ARIMA, caminata aleatoria y promedio móvil). Adicionalmente, se construyeron modelos híbridos combinando modelos ARIMA y redes neuronales. En este caso, los errores de pronóstico fuera de muestra de los modelos de series de tiempo sirvieron para entrenar redes destinadas a la proyección de residuos. Con los residuos así pronosticados, se corrigieron las proyecciones iniciales de los modelos de series de tiempo. En términos generales, la metodología de trabajo aplicada en este estudio comprendió las siguientes tareas: selección de datos (precio anual del cobre refinado de la Bolsa de Metales de Londres entre los años 1913 y 2006); aplicación de transformaciones en los datos (escalamiento y transformación logarítmica); aplicación de redes neuronales, modelos de series de tiempo y modelos híbridos, junto con la programación de rutinas computacionales para la realización de pronósticos con un alcance de hasta 6 años; evaluación de resultados e identificación de las características de los modelos más exitosos. La calidad de los pronósticos generados se midió comparando el promedio y la desviación estándar de los errores porcentuales absolutos en el periodo comprendido entre los años 1977 y 2006, ventana de tiempo que abarca tanto fases ascendentes como descendentes del precio. Los resultados revelaron un mejor desempeño de los modelos de pronóstico basados en redes neuronales, con una reducción relativa del promedio del error porcentual absoluto (MAPE) de 30% respecto de los mejores modelos ARIMA y de hasta un 49% respecto a la caminata aleatoria, en pronósticos a más de dos años. De este modo, se estableció que el modelamiento no lineal a través de redes neuronales es capaz de aprovechar mejor la información contenida en los precios históricos considerados en el estudio. Por otra parte, en pronósticos a 1 año, el menor error alcanzado con la aplicación de un modelo híbrido (reducción relativa del MAPE de 1,5% respecto a redes neuronales, de 5,6% respecto a modelos ARIMA y de 13% respecto al camino aleatorio) evidenció que, mediante el trabajo conjunto con modelos de series de tiempo y redes neuronales, es posible conseguir pronósticos de mayor precisión a los generados con cada técnica por separado. Finalmente, la comparación de los pronósticos publicados por un prestigioso analista del mercado del cobre versus los resultados conseguidos con los mejores modelos seleccionados reveló la mayor precisión de estos últimos, con reducciones relativas del MAPE de 33% y 43% en proyecciones a 1 y 2 años respectivamente. El impacto que tiene el precio del cobre en la actividad minera (evaluación de proyectos, planificación de la producción, evaluación y control de los resultados de gestión y de negocios) y en la economía de nuestro país (alta participación del cobre en las exportaciones y en los ingresos fiscales), conjuntamente con los resultados observados en este estudio, hacen atractivo continuar con la investigación en torno al uso de herramientas de Inteligencia Computacional en el pronóstico del precio del cobre. Trabajos futuros podrían enfocarse en otras estrategias de aprendizaje, arquitecturas alternativas, incorporación de otras variables explicativas (stocks en semanas de consumos, índices de actividad económica, etc.), aplicación de heurísticas para el diseño de redes, evaluación de diferentes modelos híbridos y la aplicación de máquinas de soporte vectorial.
280

Mapas Temporales Mediante Redes Neuronales Auto-Organizativas

Hernández Cárcamo, Rodrigo Enrico January 2008 (has links)
En problemas del mundo real la información posee frecuentemente fuertes dependencias temporales y una sola muestra no es suficientemente explicativa para captar la dinámica subyacente. Las redes neuronales han demostrado una alta efectividad tanto en problemas lineales como no- lineales. El modelo Merge Neural Gas (MNG) es un poderosos algoritmo no supervisado para el procesamiento de secuencias temporales, su estabilidad y convergencia lo hacen una herramienta atractiva y simple. Las memorias Gamma constituyen un poderoso filtro que posee la eficiencia de los filtros de Respuesta Infinita al Impulso (IIR), la estabilidad y fácil entrenamiento como los filtros de Respuesta Finita al Impulso (FIR). Su principal característica reside en poder controlar la profundidad de la memoria y la resolución del filtrado. El presente trabajo propone un nuevo modelo de contextos que puede ser combinado con distintos esquemas de cuantización estáticos como mapas auto-organizativos o Gas Neuronal, cuyas reglas de entrenamiento se deriva de la minimización de un funcional de cuantización temporal, permitiendo así el procesamiento de secuencias temporales. El modelo de contextos se basa en memorias Gamma, las cuales además de capturar la dinámica de la serie entregan al algoritmo propiedades fundamentales de los filtros IIR y FIR. Puesto que las memorias Gamma se construyen recursivamente, el modelo propuesto puede controlar la memoria temporal ajustando la cantidad de contextos utilizados. Para cuantificar la calidad de la cuantización temporal se utilizó el Error de cuantización Temporal (TQE) y mediante el uso de planos de recurrencia se evaluó la capacidad del algoritmo para reconstruir una aproximación del espacio de estado. El nuevo modelo generaliza a MNG, haciendo de éste un caso particular del modelo propuesto cuando sólo se utiliza un contexto. Esto no sólo permite reutilizar las propiedades ya estudiadas para MNG, sino que le entrega un nuevo marco teórico. Diversas bases de datos benchmark y de la vida real han sido utilizadas a fin de estudiar experimentalmente las propiedades de Gamma NG. Distintos atractores caóticos permiten demostrar cómo el aumento del número de contextos mejora la reconstrucción de espacio de estado realizado por el modelo de contextos, justificándose así la una de las superioridades de Gamma NG por sobre MNG. En el atractor de Lorenz la reconstrucción de espacio de estado arrojó un error E=0,0138 para Gamma NG y E=0.0199 para MNG. En tareas de clasificación el porcentaje de acierto fue de 92,45 % para Gamma NG y 89,81 % para MNG. El modelo de contextos Gamma resulta ser una herramienta que puede ser combinada con distintos esquemas convencionales de cuantización el cual mediante una simple regla de recurrencia basada en memorias Gamma permite evitar el uso de ventanas de tiempo mejorando el procesamiento de secuencias gracias a una mejor reconstrucción de espacio de estado.

Page generated in 0.041 seconds