• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 258
  • 43
  • 2
  • Tagged with
  • 303
  • 303
  • 142
  • 80
  • 80
  • 80
  • 80
  • 80
  • 64
  • 63
  • 47
  • 47
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Desarrollo de diferentes métodos de selección de variables para sistemas multisensoriales

Gualdron Guerrero, Oscar Eduardo 13 July 2006 (has links)
Los sistemas de olfato electrónico son instrumentos que han sido desarrollados para emular a los sistemas de olfato biológicos. A este tipo de ingenios se les ha conocido popularmente como narices electrónicas (NE). Los científicos e ingenieros que siguen perfeccionando este tipo de instrumento trabajan en diferentes frentes, como son el del desarrollo de nuevos sensores de gases (con mejor discriminación y mayor sensibilidad), el de la adaptación de técnicas analíticas como la espectrometría de masas (MS) en substitución de la tradicional matriz de sensores químicos, la extracción de nuevos parámetros de la respuesta de los sensores (preprocesado) o incluso en el desarrollo de técnicas más sofisticadas para el procesado de datos.Uno de los principales inconvenientes que en la actualidad presentan los sistemas de olfato artificial es la alta dimensionalidad de los conjuntos a analizar, debido a la gran cantidad de parámetros que se obtienen de cada medida. El principal objetivo de esta tesis ha sido estudiar y desarrollar nuevos métodos de selección de variables con el fin de reducir la dimensionalidad de los datos y así poder optimizar los procesos de reconocimiento en sistemas de olfato electrónico basados en sensores de gases o en espectrometría de masas.Para poder evaluar la importancia de los métodos y comprobar si ayudan realmente a solucionar la problemática de la dimensionalidad se han utilizado cuatro conjuntos de datos pertenecientes a aplicaciones reales que nos permitieron comprobar y comparar los diferentes métodos implementados de forma objetiva. Estos cuatro conjuntos de datos se han utilizado en tres estudios cuyas conclusiones repasamos a continuación:En el primero de los estudios se ha demostrado que diferentes métodos (secuenciales o estocásticos) pueden ser acoplados a clasificadores fuzzy ARTMAP o PNN y ser usados para la selección de variables en problemas de análisis de gases en sistemas multisensoriales. Los métodos fueron aplicados simultáneamente para identificar y cuantificar tres compuestos orgánicos volátiles y sus mezclas binarias construyendo sus respectivos modelos neuronales de clasificación.El segundo trabajo que se incluye en esta tesis propone una nueva estrategia para la selección de variables que se ha mostrado eficaz ante diferentes conjuntos de datos provenientes de sistemas olfativos basados en espectrometría de masas (MS). La estrategia ha sido aplicada inicialmente a un conjunto de datos consistente de mezclas sintéticas de compuestos volátiles. Este conjunto ha sido usado para mostrar que el proceso de selección es viable para identificar un mínimo número de fragmentos que permiten la discriminación correcta entre mezclas usando clasificadores fuzzy ARTMAP. Además, dada la naturaleza simple del problema planteado, fue posible mostrar que los fragmentos seleccionados, son fragmentos de ionización característicos de las especies presentes en las mezclas a ser discriminadas. Una vez demostrado el correcto funcionamiento de esta estrategia, se aplicó esta metodología a otros dos conjuntos de datos (aceite de oliva y jamones ibéricos, respectivamente).El tercer estudio tratado en esta tesis ha girado en torno al desarrollo de un nuevo método de selección de variables inspirado en la concatenación de varios procesos de "backward selection". El método está especialmente diseñado para trabajar con Support Vector machines (SVM) en problemas de clasificación o de regresión. La utilidad del método ha sido evaluada usando dos de los conjuntos de datos ya utilizados anteriormente.Como conclusión se puede decir que para los diferentes conjuntos estudiados, la inclusión de un proceso previo de selección de variables da como resultado una reducción drástica en la dimensionalidad y un aumento significativo en los correspondientes resultados de clasificación. Los métodos introducidos aquí no solo son útiles para resolver problemas de narices electrónicas basadas en MS, sino también para cualquier aplicación de sistemas de olfato artificial que presenten problemas de alta dimensionalidad como en el caso de los conjuntos de datos estudiados en este trabajo. / The electronic noses systems are instruments that have been developed to emulate olfactory biologic systems. These systems are known as electronic noses (EN).Nowadays, researchers and engineers working in this area are trying to optimize these systems considering different directions, such as: development of new gas sensors (with better discrimination and greater sensitivity), adaptation of analytical techniques such as mass spectrometry (MS) in substitution of chemical sensors matrix and extraction of new parameters of the sensors responses (pre-processing) or even development of sophisticated techniques for the data processing.One of the main disadvantages that have artificial olfactory systems is high dimensionality of sets to analyze. The main objective of this thesis have been study and development of new variable selection methods with the purpose of reducing dimensionality of data and thus to be able to optimize recognition processes in electronic olfactory systems based on gas sensors or mass spectrometry.These methods have been used with four datasets which belong to real applications.They allowed us to verify and to compare different implemented methods. These four datasets have been used in three studies whose conclusions are reviewed as follows.The first study has demonstrated that different methods (either deterministic or stochastic) can be coupled to a fuzzy ARTMAP or a PNN classifier and be used for variable selection in gas analysis problems by multisensor systems. The methods were applied to simultaneously identify and quantify three volatile organic compounds and their binary mixtures by building neural classification models.The second study, proposes a new strategy for feature selection in dataset of system olfactory based on mass spectrometry (MS). This strategy has been introduced and its good performance demonstrated using different MS e-nose databases. The strategy has been applied initially to a database consisting of synthetic mixtures of volatile compounds. This simple database has been used to show that the feature selection process is able to identify a minimal set of fragments that enables the correct discrimination between mixtures using a simple fuzzy ARTMAP classifier.Furthermore, given the simple nature of the problem envisaged, it was possible to show that the fragments selected 'made sense' were characteristic ionisation fragments of the species present in the mixtures which were discriminated. Once demonstrated the correct operation of this strategy, this methodology was applied to other two data sets (olive oil, Iberian ham).In the third study of this thesis has been introduced a new method of variable selection based on sequential backward selection. The method is specifically designed to work with Support vector machines (SVM) either for classification or regression. The usefulness of the method has been assessed using two multisensor system databases (measurements of vapour simples and vapour mixtures performed using an array of metal oxide gas sensors and measurement of Iberian ham).For different databases studied, dramatic decrease in dimensionality of model and an increase in classification performance is result of using variable selection. The methods introduced here are useful not only to solve MS-based electronic nose problems, but are of interest for any electronic nose application suffering from highdimensionality problems, no matter which sensing technology is used.
122

Método de clasificación para evaluar el riesgo crediticio : una comparación

Vigo Chacón, Geraldine Judith January 2010 (has links)
Se comparan dos métodos clásicos de clasificación: Análisis de Regresión Logística y Árboles de Clasificación, con el método de Redes Neuronales. La comparación se realizó en base al poder de clasificación y predicción de los modelos obtenidos en la evaluación del Riesgo Crediticio, siendo Redes Neuronales el mejor método por tener mayor poder de clasificación y predicción. Para el análisis se utilizó una Base de Datos de Riesgo Crediticio. Asimismo, se establecen las ventajas y desventajas en el empleo de cada método. Palabras Claves: Análisis de Regresión Logística, Árboles de Clasificación, Redes Neuronales. / Two classics methods of classification are compared: Analysis of Logistic Regression and Classification Trees with the method of Neural Networks. The comparison realized through his power of classification and prediction of the models obtains in the evaluation of credit risk, Neural Networks is the best method, because it has high power of classification and prediction. For the analysis used a database of credit risk. Likewise found the advantages and disadvantages in the use of each method. Key Words: Analysis Logistic Regression, Classification Trees, Neural Networks.
123

Reconocimiento de gestos dinámicos

Quiroga, Facundo January 2014 (has links)
El objetivo de esta tesina es estudiar, desarrollar, analizar y comparar distintas técnicas de aprendizaje automático aplicables al reconocimiento automático de gestos dinámicos. Para ello, se definió un modelo de gestos a reconocer, se generó una base de datos de prueba con gestos llamadas LNHG, y se estudiaron e implementaron clasificadores basados en máquinas de vectores de soporte (SVM), redes neuronales feedfoward (FF) y redes neuronales competitivas (CPN), utilizando representaciones locales y globales para caracterizar los gestos. Además, se propone un nuevo modelo de reconocimiento de gestos, el clasificador neuronal competitivo (CNC). Los gestos a reconocer son movimientos de la mano, con invariancia a la velocidad, la rotación, la escala y la traslación. La captura de la información referida a los gestos para generar la base de datos se realizó mediante el dispositivo Kinect y su SDK correspondiente, que reconoce las partes del cuerpo y determina sus posiciones en tiempo real. Los clasificadores se entrenaron con dichos datos para poder determinar si una secuencia de posiciones de la mano es un gesto. Se implementó una librería de clasificadores con los métodos mencionados anteriormente, junto con las transformaciones para llevar una secuencia de posiciones a una representación adecuada para el reconocimiento. Se realizaron experimentos con la base de datos LNHG, compuesta de gestos que representan dígitos y letras, y con un base de datos de otro autor con gestos típicos de interacción, obteniendo resultados satisfactorios.
124

Desarrollo de Sistemas de Visión en Fútbol Robótico

Dodds Rojas, Ricardo January 2009 (has links)
Ingeniero Civil Electricista / Esta memoria tiene como objetivo diseñar e implementar algoritmos de visión computacional, en diferentes etapas del sistema de visión de un robot que juega fútbol robótico. Dado que por lo general un robot tiene una capacidad de procesamiento limitada, el principal objetivo de esta memoria es mejorar la eficiencia del sistema completo, sin afectar su rendimiento. Las mejoras propuestas consisten básicamente en tres etapas: adaptación del sistema de visión al uso de un lente gran angular, implementación de un perceptor visual del arco de fútbol basado en un clasificador construido a partir de una red neuronal y el diseño de un sistema de procesamiento de imágenes multi-resolución. Para adaptar el sistema de visión al uso de un lente gran angular se utiliza un mapeo desde el espacio de la imagen con gran angular a un espacio que asume proyección plana en la imagen, basado en una transformación polinomial. Los parámetros de este mapeo corresponden a los coeficientes del polinomio de transformación y son determinados a partir de un algoritmo de optimización PSO (Particle Swarm Optimization), que utiliza como función objetivo una medida de distorsión de la imagen mapeada. Para el perceptor del arco se utilizan en una primera etapa una serie de reglas binarias para descartar rápidamente percepciones erróneas. Posteriormente se extraen características de los candidatos que se utilizan como entrada a un clasificador basado en una red neuronal del tipo MLP (Multi Layer Perceptron). Así los candidatos reciben un puntaje de acuerdo a sus características y se escoge el mejor. En el sistema de procesamiento multi-resolución se toma en cuenta el hecho que los objetos más lejanos, y que por lo tanto se ven más pequeños en la imagen, se encuentran cerca del horizonte. A partir de esta premisa se realiza un procesamiento más fino de la imagen en sectores cercanos al horizonte. Dada la naturaleza del trabajo se utilizan distintas herramientas para medir el desempeño de cada parte. Para el caso del mapeo de la imagen se utiliza el error máximo de alineamiento en la imagen resultante de puntos co-lineales en el mundo real, medido a través de la norma de los residuos arrojados por un ajuste de mínimos cuadrados, obteniéndose un error de ajuste máximo de 1,02. Mientras que para medir el rendimiento del perceptor basado en un clasificador se miden: tasa de detecciones correctas y tasa de falsos positivos, encontrándose un 96,5 y 1,5 [%] respectivamente. Finalmente el resultado del algoritmo multi-resolución se evalúa a través del cálculo del máximo número de pixeles recorridos al procesar una imagen, con lo cual se determina que se analizan en el peor de los casos, menos de un tercio de los pixeles que usando el sistema anterior. Los resultados obtenidos muestran que los métodos propuestos tienen un buen desempeño. En cada etapa se aprecia la ventaja de su uso, por lo que se considera el trabajo realizado como una mejora integral al sistema de visión del equipo de fútbol robótico. No obstante, no deja de ser interesante buscar mejores aproximaciones a cada problema y al sistema completo.
125

Redes neuronales aplicadas a la predicción del precio del oro y medición de la robustez de los resultados utilizando Bootstrap

Friz Echeverría, Rodolfo January 2003 (has links)
Este estudio tiene por objeto determinar en una primera parte, la capacidad predictiva des las redes neuronales tanto Rolling como Recursivas en la preedición de signos de la variación del precio del oro, para en una segunda parte determinar si los resultados obtenidos por una de estas redes es robusto en los distintos escenarios económicos o sea si se obtiene la misma predicción de signos bajo diferentes escenarios ficticios, los cuales se simulan con la técnica Bootstrap, para obtener una distribución de los retornos de la técnica.
126

Pronóstico de Caudales de las Cuencas de Betania y Bío-Bío Utilizando Métodos Estadísticos

Court Benvenuto, Sebastián Andrés January 2008 (has links)
El objetivo general del presente trabajo es modelar, explicar y predecir el nivel de caudal de las cuencas de Betania y Bío-Bío, ubicadas en Colombia y Chile respectivamente, con el objeto de mejorar la comprensión del fenómeno y la planificación energética por parte de la empresa ENDESA Chile. ENDESA Chile posee un área de profesionales que dedica parte de su trabajo a modelar y pronosticar los caudales de, entre otras, las cuencas antes mencionadas. Si bien los resultados de dichas predicciones no son insuficientes, se desea mejorar de forma importante la precisión de las mismas; llegando, en lo posible, a un error cercano al 20%. A partir de la información histórica proporcionada por la empresa y de otras fuentes meteorológicas especializadas, se determinaron modelos de dos tipos. En primer lugar, los modelos de series de tiempo usuales, con pequeñas modificaciones, para llevarlos a los conocidos como modelos PAR y PARX. En segundo lugar, se intentó utilizar modelos no lineales de redes neuronales artificiales para explorar las posibles no linealidades que pudiese poseer el problema. Finalmente, se clasificaron los caudales en tres niveles, a modo de resumir la información presentada por los modelos. Para la creación, estimación y calibración de los modelos se utilizaron diversas técnicas estadísticas. Entre ellas destacan el análisis de componentes principales para reducir la dimensionalidad de variables climáticas, el test de normalidad de Shapiro-Wilks y técnicas de calibración y validación de modelos, entre otras. El resultado al comparar los dos tipos de modelos arrojó que, si bien los modelos de redes neuronales entregan mejores resultados en muchas ocasiones, la poca simplicidad y capacidad de explicación que poseen indican que es mejor la alternativa lineal, es decir, los modelos PAR/PARX de series de tiempo. Se concluye que es posible disminuir el error bajo el 20% utilizando técnicas estadísticas de estructura sencilla que permitan explicar y comprender la forma del fenómeno. Se recomienda finalmente, que la empresa ENDESA elija algunas de las alternativas de modelos planteados de acuerdo a sus intereses, es decir, menor error o mayor comprensión.
127

Red de kohonen para determinar la eficiencia del uso de fosfitos en el tratamiento de la enfermedad Phytophthora cinnamomi en plantas de arándanos (Vaccinium corymbosum) cv. Biloxi.

Huayhua Solórzano, Flor de Liz January 2017 (has links)
El documento digital no refiere un asesor / Determina mediante el uso de redes neuronales - Red kohonen la eficiencia que produce las diferentes aplicaciones de fosfitos a nivel foliar y radicular contra la enfermedad Phytopthora Cinnamoni en plantas de arándanos (Vaccinium Corymbosum) - Biloxi. Para lo cual se: se elabora dos cuadros de datos, para analizar el comportamiento del tamaño y el diámetro de las plántulas en las diferentes toma de tiempos, se elabora un cuadro para la toma de datos del tamaño de la raíz, se elabora un cuadro para la toma de datos del peso fresco y seco del follaje, se elabora un cuadro para la toma de datos para el peso seco y fresco de la raíz, se crea un programa en Matlab con uso de redes neuronales - Red kohonen, se crea varias redes con distintas cantidades de clusters, por ejemplo: tamaño de la planta vs diámetro de la planta, tamaño de la planta vs raíz, etc., en cada una de estas se crea la red de kohonen al inicio y al final con 2, 3, 4, y 7 clusters, observando en cada una de ellas la eficiencia de los fosfitos ante los fungicidas. Los resultados de estos grupos son comparados con diferentes grupos de clusters, teniendo así el resultado de la eficiencia del uso de los fosfitos y los fungicidas en las plántulas para este experimento. / Trabajo de suficiencia profesional
128

Metodología para la evaluación de la susceptibilidad de fenómenos de remoción en masa mediante análisis de redes neuronales aplicada en el fiordo Comau, Región de Los Lagos, Chile

Villela Ramírez, Bruno Franco January 2017 (has links)
Geólogo / El presente trabajo tiene como objetivo principal presentar una metodología para la evaluación de susceptibilidad de remociones en masa, y aplicarla en la ladera este del fiordo Comau, región de Los Lagos, Chile. Se trabajó con una escala de 1:25.000 y con una resolución de DEM (Digital Elevation Model) de 30x30. Por otra parte, los condicionantes para el análisis fueron: elevación, pendiente, orientación de ladera, curvatura media, geología, distancia a lineamientos, distancia a fallas, distancia a cursos de agua, distancia a ríos y radiación solar anual, los cuales fueron normalizados. Para la evaluación de susceptibilidad, se ocuparon redes neuronales (Análisis Neural Network ANN) del tipo Multi Layer Perceptron (MLP), con el método de aprendizaje feed forward backpropagation o propagación de error y con el método de convergencia Levenberg-Marquardt. Para llevar a cabo la metodología, el área de estudio se redujo a puntos equiespaciados a 30 metros, se tomaron los puntos de generación de remociones en masa y puntos que no cumplen con las condiciones de remociones en masa, y se le dio diez valores correspondientes al valor de cada factor condicionante normalizado. Asimismo, los puntos del área de estudio quedaron asociados a un valor de los factores condicionantes. Con los puntos de inicio o generación y de zonas con ausencia de remoción en masa, se configuraron matrices para el proceso de entrenamiento, validación y test de la red neuronal. Una vez entrenada la red y corroborado su buen desempeño, se evaluaron los puntos del área de estudio, obteniendo un valor de susceptibilidad para cada uno de ellos, los que fueron categorizados cualitativamente en muy baja, baja, media, alta y muy alta. De acuerdo a los resultados obtenidos de la red, se determinó una correlación entre zonas de alta y muy alta susceptibilidad con elevaciones entre los 800 y 1.600 m s.n.m, pendientes entre los 35° y 70°, orientación de laderas oeste y curvaturas medias cóncavas; mientras que zonas de baja y muy baja susceptibilidad presentaron correlación con elevaciones inferiores a 100 m s.n.m., pendientes menores a 35°, orientación de ladera este, curvaturas medias convexas y planas, y distancia a fallas, lineamientos, cursos de agua y ríos, muy lejanas. Considerando los pesos sinápticos de la capa de entrada, se determinó que los factores que poseían mayor peso eran: elevación, distancia a lineamientos, geología, pendiente, orientación de ladera, distancia a ríos, distancia a fallas, curvatura, radiación y distancia a cursos de agua. Así, se realizaron análisis con los seis factores más importantes, y luego, con tres, lo que demostró que el análisis con diez factores es óptimo, pero un análisis con 6 factores es suficiente, y entrega una buena aproximación de susceptibilidad, además de tener una correlación positiva con los análisis. Por su parte, un análisis con tres factores no presentó una buena aproximación de susceptibilidad. / 19/12/2020
129

Clasificación mediante parámetros instrumentales de la intensidad de Mercalli modificada

Oviedo Vega, Pamela Andrea January 2017 (has links)
Ingeniera Civil / La evaluación de los daños y/o pérdidas en un sitio determinado ocurridos como consecuencia de un terremoto es un tema importante en el ámbito de la ingeniería sísmica. Las escalas de intensidades permiten identificar en primera instancia y en forma rápida el nivel de severidad del movimiento, pero estas son de carácter cualitativo ya que están basadas en la observación y el juicio humano. Por lo anterior, se han buscado relaciones entre los parámetros instrumentales asociados a un movimiento sísmico y las escalas de intensidades. En particular, este trabajo tiene como objetivo principal estimar la Intensidad de Mercalli Modificada (IMM) mediante el uso de parámetros instrumentales utilizando métodos estadísticos tanto de clasificación como de regresión. Además, se busca identificar que variables son las más influyentes en el valor de la escala de la Intensidad de Mercalli Modificada asignado luego de la ocurrencia de un sismo. Para lograr los objetivos de este trabajo se utilizan dos métodos estadísticos que son clasificados dentro de lo que se conoce como Aprendizaje Automático (AA): Redes Neuronales Artificiales (RNA) y Regresión Logística Multinomial (RGM). Los parámetros instrumentales considerados son: Aceleración Máxima de Suelo (PGA), Velocidad Máxima de Suelo (PGV), duración fase fuerte, Intensidad de Arias (Ia), Intensidad Espectral de Housner (SI), Intensidad Instrumental de la Agencia Meteorológica de Japón (IJMA), velocidad absoluta acumulada (CAV), intensidad de cruces por cero (ν), frecuencia central, espectros de respuesta (Sa, Sv y Sd), distancia al hipocentro, profundidad hipocentro y fuente sismogénica. Del desarrollo de este trabajo y el análisis de los resultados obtenidos, se tienen como conclusiones y observaciones principales que el método de RLM presenta un mejor desempeño que RNA. En cuanto a qué parámetros instrumentales son los más influyentes, se obtiene que son: log(PGV), log(PGA), log(Ia), log(SI) e IJMA. El modelo generado mediante RLM ocupando solo estas variables arroja un mayor porcentaje de clasificación que ocupando todos los parámetros. Sin embargo, para ambos métodos el uso de cada variable por separado (las más influyentes) es levemente mejor que utilizar las cinco juntas, siendo la que mejor resultados entrega log(PGV). Por último, de los resultados se observa que el conocimiento a priori del tipo de suelo no es influyente en los resultados.
130

Estudio de la utilización del potencial de información cruzado en el aprendizaje con ensamble de redes neuronales

Saavedra Doren, Pablo Antonio January 2017 (has links)
Ingeniero Civil Eléctrico / El propósito del presente trabajo es estudiar y proponer un método de aprendizaje para los Ensambles de Redes Neuronales basados en la maximización de la Información Mutua Cuadrática entre las salidas de los modelos que componen el Ensamble. En esencia el método propuesto es una función de costo que incluye un término de regularización basado en Información Mutua que se estima a partir del Potencial de Información Cruzado o CIP (Cross Information Potential), además el término de regularización busca favorecer la diversidad entre los modelos del Ensamble. Al método propuesto se le identifica en este trabajo como CIPL (Cross Information Potential Learning). La hipótesis de trabajo es que la utilización de herramientas de Teoría de la Información en la definición de la función de costo de CIPL pueden ayudar a mejorar la precisión y la diversidad del Ensamble comparado con el método basado en correlación negativa propuesto por el método NCL (Negative Correlation Learning) además de ayudar a favorecer más aun la diversidad. La metodología de trabajo incluye primeramente la implementación de una librería desarrollada en el lenguaje de programación Python para poder entrenar modelos de redes neuronales en forma paralela con el fin de poder probar el método de entrenamiento NCL y CIPL. Para evaluar el método de entrenamiento CIPL se realizan pruebas sobre problemas de regresión y clasificación típicos, parte de estas pruebas intentan determinar su comportamiento bajo condiciones de ruido y valores atípicos. Para el caso de CIPL se agregan pruebas sobre los diferentes hiperparámetros que tiene. Los resultados obtenidos muestran que CIPL tiene un desempeño similar que NCL en problemas de clasificación, no así en regresión donde NCL es mucho mejor. En cuanto a los hiperparámetros de CIPL se destaca que la sinergia y la redundancia influyen directamente en la diversidad del Ensamble, incluso permiten obtener mejores niveles de diversidad que NCL. La implementación de CIPL tiene problemas con los tiempos de entrenamiento que aumentan de forma exponencial con la cantidad de muestras y de modelos del Ensamble, por lo que requiere una optimización del código. Por otro lado, aunque la diversidad en el caso de CIPL mejora los resultados, no es posible cuantificar este efecto, por tanto se deja propuesto para trabajos futuros. Además, falta resolver problemas que tiene la implementación de CIPL cuando se trabaja con más de 2 clases.

Page generated in 0.0713 seconds