• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 258
  • 43
  • 2
  • Tagged with
  • 303
  • 303
  • 142
  • 80
  • 80
  • 80
  • 80
  • 80
  • 64
  • 63
  • 47
  • 47
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Proyección del Precio del Cobre: ¿Herramientas de Inteligencia Computacional o Series de Tiempo? En Busca de Pronósticos Ajustados para el Precio del Cobre en el Corto y Mediano Plazo.

Foix Castillo, Cristián Isaac January 2007 (has links)
Esta tesis tiene como objetivo la entrega de evidencias respecto a la potencia de las redes neuronales como herramienta para el pronóstico del precio anual del cobre. Con este fin se evaluó el desempeño predictivo, fuera de muestra, de diferentes redes neuronales de tipo multilayer perceptron, construidas sobre la base del precio rezagado del cobre y variables derivadas del mismo, tales como la última variación del precio y la desviación estándar de los últimos periodos. Los resultados conseguidos se contrastaron con los generados mediante la aplicación de los más tradicionales y exitosos modelos de series de tiempo (ARIMA, caminata aleatoria y promedio móvil). Adicionalmente, se construyeron modelos híbridos combinando modelos ARIMA y redes neuronales. En este caso, los errores de pronóstico fuera de muestra de los modelos de series de tiempo sirvieron para entrenar redes destinadas a la proyección de residuos. Con los residuos así pronosticados, se corrigieron las proyecciones iniciales de los modelos de series de tiempo. En términos generales, la metodología de trabajo aplicada en este estudio comprendió las siguientes tareas: selección de datos (precio anual del cobre refinado de la Bolsa de Metales de Londres entre los años 1913 y 2006); aplicación de transformaciones en los datos (escalamiento y transformación logarítmica); aplicación de redes neuronales, modelos de series de tiempo y modelos híbridos, junto con la programación de rutinas computacionales para la realización de pronósticos con un alcance de hasta 6 años; evaluación de resultados e identificación de las características de los modelos más exitosos. La calidad de los pronósticos generados se midió comparando el promedio y la desviación estándar de los errores porcentuales absolutos en el periodo comprendido entre los años 1977 y 2006, ventana de tiempo que abarca tanto fases ascendentes como descendentes del precio. Los resultados revelaron un mejor desempeño de los modelos de pronóstico basados en redes neuronales, con una reducción relativa del promedio del error porcentual absoluto (MAPE) de 30% respecto de los mejores modelos ARIMA y de hasta un 49% respecto a la caminata aleatoria, en pronósticos a más de dos años. De este modo, se estableció que el modelamiento no lineal a través de redes neuronales es capaz de aprovechar mejor la información contenida en los precios históricos considerados en el estudio. Por otra parte, en pronósticos a 1 año, el menor error alcanzado con la aplicación de un modelo híbrido (reducción relativa del MAPE de 1,5% respecto a redes neuronales, de 5,6% respecto a modelos ARIMA y de 13% respecto al camino aleatorio) evidenció que, mediante el trabajo conjunto con modelos de series de tiempo y redes neuronales, es posible conseguir pronósticos de mayor precisión a los generados con cada técnica por separado. Finalmente, la comparación de los pronósticos publicados por un prestigioso analista del mercado del cobre versus los resultados conseguidos con los mejores modelos seleccionados reveló la mayor precisión de estos últimos, con reducciones relativas del MAPE de 33% y 43% en proyecciones a 1 y 2 años respectivamente. El impacto que tiene el precio del cobre en la actividad minera (evaluación de proyectos, planificación de la producción, evaluación y control de los resultados de gestión y de negocios) y en la economía de nuestro país (alta participación del cobre en las exportaciones y en los ingresos fiscales), conjuntamente con los resultados observados en este estudio, hacen atractivo continuar con la investigación en torno al uso de herramientas de Inteligencia Computacional en el pronóstico del precio del cobre. Trabajos futuros podrían enfocarse en otras estrategias de aprendizaje, arquitecturas alternativas, incorporación de otras variables explicativas (stocks en semanas de consumos, índices de actividad económica, etc.), aplicación de heurísticas para el diseño de redes, evaluación de diferentes modelos híbridos y la aplicación de máquinas de soporte vectorial.
132

Mapas Temporales Mediante Redes Neuronales Auto-Organizativas

Hernández Cárcamo, Rodrigo Enrico January 2008 (has links)
En problemas del mundo real la información posee frecuentemente fuertes dependencias temporales y una sola muestra no es suficientemente explicativa para captar la dinámica subyacente. Las redes neuronales han demostrado una alta efectividad tanto en problemas lineales como no- lineales. El modelo Merge Neural Gas (MNG) es un poderosos algoritmo no supervisado para el procesamiento de secuencias temporales, su estabilidad y convergencia lo hacen una herramienta atractiva y simple. Las memorias Gamma constituyen un poderoso filtro que posee la eficiencia de los filtros de Respuesta Infinita al Impulso (IIR), la estabilidad y fácil entrenamiento como los filtros de Respuesta Finita al Impulso (FIR). Su principal característica reside en poder controlar la profundidad de la memoria y la resolución del filtrado. El presente trabajo propone un nuevo modelo de contextos que puede ser combinado con distintos esquemas de cuantización estáticos como mapas auto-organizativos o Gas Neuronal, cuyas reglas de entrenamiento se deriva de la minimización de un funcional de cuantización temporal, permitiendo así el procesamiento de secuencias temporales. El modelo de contextos se basa en memorias Gamma, las cuales además de capturar la dinámica de la serie entregan al algoritmo propiedades fundamentales de los filtros IIR y FIR. Puesto que las memorias Gamma se construyen recursivamente, el modelo propuesto puede controlar la memoria temporal ajustando la cantidad de contextos utilizados. Para cuantificar la calidad de la cuantización temporal se utilizó el Error de cuantización Temporal (TQE) y mediante el uso de planos de recurrencia se evaluó la capacidad del algoritmo para reconstruir una aproximación del espacio de estado. El nuevo modelo generaliza a MNG, haciendo de éste un caso particular del modelo propuesto cuando sólo se utiliza un contexto. Esto no sólo permite reutilizar las propiedades ya estudiadas para MNG, sino que le entrega un nuevo marco teórico. Diversas bases de datos benchmark y de la vida real han sido utilizadas a fin de estudiar experimentalmente las propiedades de Gamma NG. Distintos atractores caóticos permiten demostrar cómo el aumento del número de contextos mejora la reconstrucción de espacio de estado realizado por el modelo de contextos, justificándose así la una de las superioridades de Gamma NG por sobre MNG. En el atractor de Lorenz la reconstrucción de espacio de estado arrojó un error E=0,0138 para Gamma NG y E=0.0199 para MNG. En tareas de clasificación el porcentaje de acierto fue de 92,45 % para Gamma NG y 89,81 % para MNG. El modelo de contextos Gamma resulta ser una herramienta que puede ser combinada con distintos esquemas convencionales de cuantización el cual mediante una simple regla de recurrencia basada en memorias Gamma permite evitar el uso de ventanas de tiempo mejorando el procesamiento de secuencias gracias a una mejor reconstrucción de espacio de estado.
133

Control predictivo supervisor neuronal para la turbina a gas de la central térmica nueva renca.

Silva Castro, Iris Sophia January 2006 (has links)
El presente trabajo tiene como objetivos el ajuste de un simulador programado en MatLab Simulink para emular el comportamiento de la turbina a gas de la central térmica Nueva Renca, además del análisis y diseño de estrategias de control supervisor basadas en modelos difusos, y de un emulador neuronal del controlador predictivo difuso. La importancia actual de este estudio radica en la necesidad de hacer más eficientes los procesos de generación de electricidad, especialmente los que utilizan gas natural en la producción, dadas las perspectivas de crecimiento del precio del combustible y de las restricciones impuestas al suministro desde Argentina. El diseño de las estrategias de control supervisor requirió la modelación difusa de la turbina y la modelación neuronal de control supervisor predictivo difuso. Como modelo difuso se escogió un modelo de Takagi – Sugeno y como modelo neuronal una red perceptrón multicapa con una capa oculta. Las funciones de activación son tangente hiperbólica para las neuronas de la capa oculta y lineal para la capa de salida. Los resultados de este estudio reflejan que según criterios económicos, operativos y de esfuerzo computacional, el control por emulación es mejor que el control predictivo difuso, sin embargo, se debe realizar un trabajo previo mayor, al tener que recolectar datos para el entrenamiento de la red neuronal. Con la implementación del controlador neuronal se logró un incremento 3,027% en las utilidades con respecto a la estrategia de control regulatoria, lo que se traduce en un incremento de 1,8 millones de dólares anuales.
134

Distribución Espacial de la Conductividad Eléctrica del Suelo de la Región de Lambayeque Usando Imágenes de los Satélites Landsat 5 y 7 Mediante Redes Neuronales Artificiales: Perceptrón Multicapa

Badaracco Meza, Rolando Renee January 2014 (has links)
Publicación a texto completo no autorizada por el autor / Implementa una “red neuronal artificial” con arquitectura de retropropagación de error (“Back-Propagation”), que permita clasificar la salinidad en los suelos, usando como datos de entradas imágenes de NDVI, y datos de entrenamiento de conductividad eléctrica del suelo. El área de estudio se encuentra entre las coordenadas UTM por 614775 m E, 627345 m E y por 9277495 m N, 9255475 m N, debido a que los datos de conductividad eléctrica del suelo son obtenidos de los distritos de Lambayeque y Mochumí, localizados en el departamento de Lambayeque de la costa norte del Perú. Se usan 46 imágenes satelitales procedentes de los sensores ETM+ y TM de proyección UTM, zona 17S, y de Datum WGS84. Estas imágenes son analizadas usando el software de procesamiento de imagen ENVI 4.5 y el lenguaje de programación IDL. Se evalúan dos modelos de arquitectura de red neuronal, para el primer modelo se utiliza 1 capa oculta obteniendo un error de entrenamiento de 0.40 y en el segundo modelo se utilizó 2 capas ocultas presentando un error de entrenamiento de 0.27. / Tesis
135

Caracterización geoquímica e identificación de zonas de anomalías en la cordillera de la costa entre los 20°S y 21°S, I Región de Tarapacá Chile

Ramírez Mora, Catalina Natalia January 2012 (has links)
Geóloga / En este trabajó se estudió la composición química de la fracción 180 µm de sedimentos de drenaje en la Cordillera de la Costa de la I Región de Tarapacá, entre los 20°S y 21°S. Este trabajo se enmarca en el contexto del Mapa Geoquímico Regional de la Hoja de Iquique, del Servicio Nacional de Geología y Minería, el cual involucra muestreo de baja densidad (1 muestra cada 20 km2) a escala 1:250.000. El objetivo principal de esta memoria es establecer una línea de base para estos sedimentos, mediante la identificación y caracterización geoquímica de la zona, el reconocimiento de los factores que determinan estas concentraciones y la delimitación de zonas anómalas a partir de la generación de información geoquímica. Para lo anterior se utilizaron métodos estadísticos como el diagrama de caja y bigotes de cercos interiores de Tukey (1977), para identificar valores anómalos; así como de diagramas combinados y elaboración de mapas de puntos para. Paralelamente se utilizó el algoritmo de Redes Neuronales Artificiales, para establecer relaciones geoquímicas entre los sedimentos. Del mismo modo se propone una nueva metodología llamada Índice de Anomalía, la cual favorece la identificación de áreas donde se concentran valores anómalos de un elemento o conjunto de elementos. Con un criterio metalogénico se identificaron tres zonas anómalas, donde los elementos predominantes son: Cu y Fe en la primera, U y Fe en la segunda y Au y Ag en la tercera zona. Teniendo en común que son todas de origen natural, la primera está controlada por la litología, la segunda por deflación y tercera es una mezcla de estos dos factores.
136

Estrategias Avanzadas para el Control de un Sistema Mimo de 2 Rotores

Olguín Pizarro, Javier January 2007 (has links)
No description available.
137

Estudio de patrones geoquímicos regionales en sedimentos de drenaje entre los 19°S y 21°S -I región de Tarapacá, Chile

Barrera Salazar, Jaime Esteban January 2013 (has links)
Geólogo / La zona de estudio se enmarca entre los 19ºS y 21ºS; desde la línea de la costa chilena hasta los 69ºW, I región de Tarapacá y parte de XV región de Arica y Parinacota, Chile. Cubre un área aproximada de 27.500 km2. El objetivo principal es evaluar y definir la existencia de patrones geoquímicos en sedimentos de drenajes a escala regional, desarrollando interpretaciones que expliquen cuáles son los controles determinantes de cada patrón, considerando la diversidad y coexistencia de factores geológicos, climáticos y antrópicos. Las muestras de sedimentos de drenajes utilizadas fueron extraídas en terreno, preparadas en laboratorio y enviadas a análisis geoquímico por los profesionales de la unidad de geoquímica de SERNAGEOMIN durante los años 2010-2012. A los sedimentos de drenaje se les realizó un análisis de composición geoquímica de la fracción fina <180 µm por medio de ICP-MS e ICP-ES, obteniendo las concentraciones para un set de 59 elementos, incluyendo óxidos mayores y elementos trazas. En total, las 1311 muestras utilizadas, conforman una malla de baja densidad con una representación aproximada de 20 Km2 por muestra. La base de datos obtenida no será publicada en este trabajo debido a la calidad inédita de parte importante de los datos (véase Lacassie et al., 2012b). Tras obtener los análisis químicos, en este trabajo, se realizaron cálculos estadísticos básicos y mapas univariables para cada elemento. Adicionalmente se realizó un proceso de clustering y visualización multivariable por medio de la implementación de redes neuronales artificiales, obteniéndose 6 clusters con distintivas características químicas, que posteriormente fueron objeto de interpretaciones. Los resultados muestran una evidente segmentación geoquímica entre las principales unidades geomorfológicas, encontrando una fuerte diferencia entre la Cordillera de la Costa (CC) y el resto de las unidades. Las principales anomalías de la CC corresponden a Ca, S, P, y Se. Los controles determinantes en la geoquímica de la CC corresponden a factores geológicos y climáticos entre los que destacan: el periódico aporte de iones desde el océano pacífico hacia el continente por medio de la camanchaca, la abundancia relativa de los iones transportados, la capacidad de absorción iónica superficial de arcillas, óxidos e hidróxidos; la afinidad química entre elementos y condición climática de hiperaridez prolongada. Los controles determinantes en los patrones presentes en la Depresión intermedia (DI) y Precordillera (PR) corresponden a procesos relacionados con la meteorización y transporte de detritos desde la Cordillera Occidental (CO); y la constante deflación eólica a la que es sometida la DI. Esto conlleva a la generación de patrones antagónicos, que representarían, por un lado, fases mineralógicas abundantes en rocas con mayor diferenciación para aquel patrón dominante en quebradas, y por otro lado, fases densas para aquel patrón que domina en pampas. Se obtiene un patrón asociado a las cotas altas de la CO que refleja la mineralogía de la roca fresca de edificios y secuencias volcánicas; y otro patrón asociado principalmente a sectores con alteración hidrotermal y/o actividad de la industria mineral, distribuido en las distintas unidades geomorfológicas. Adicionalmente se reconocieron 2 quebradas con evidente anomalías, que se sugiere como consecuencia de la intervención humana y la industria minera; esta alteración se expresa fuertemente en la anomalía de Cobre (Cu) río abajo de la faena de HMC ubicada en la Qda. Sagasca y la histórica alteración en la concentración de molibdeno (Mo) que posee la Qda. Guatacondo. Se requiere estudio de detalle para confirmar estas sugerencias. Finalmente, fueron comparadas las concentraciones de metales pesados con estándares internacionales a fin de distinguir posibles zonas con concentraciones riesgosas para organismos vivos; en general los sectores donde ciertos elementos como el arsénico (As), cromo (Cr) y cobre (Cu) tienen valores nocivos para la biota, no se encuentran poblados y tampoco se desarrollan grandes ecosistemas de organismos superiores. Se reconocen factores naturales, como la concentración anómala de As en Qda. Camarones, y factores antrópicos como alteraciones puntuales por la industria minera.
138

Pronóstico de Volúmenes de Deshielos Mediante Redes Neuronales Recurrentes e Imágenes Satelitales Modis

Cartes Valdivia, Mauricio Andrés January 2009 (has links)
No description available.
139

Método para la Generación de Pérfiles de Demanda en Comunidades Aisladas y Predicción de Demanda de Corto Plazo, para Micro-Redes Basadas en Energías Renovables

Llanos Proaño, Jacqueline del Rosario January 2012 (has links)
“Método para la Generación de Perfiles de Demanda en Comunidades Aisladas y Predicción de Demanda de Corto Plazo, para Micro-redes Basadas en Energías Renovables” El incremento del abastecimiento energético en comunidades aisladas empleando fuentes renovables, ha impulsado el estudio de la demanda eléctrica en estas zonas. Como etapa inicial de este tipo de proyectos se requieren perfiles de demanda eléctrica futuros que reflejen el comportamiento de los usuarios al disponer de energía ininterrumpida. Estos perfiles permiten además dimensionar las unidades de generación. Una herramienta importante en micro-redes eléctricas basadas en energías renovables es el sistema de gestión de la energía (EMS) que proporciona consignas óptimas a las unidades de generación, basadas en: predictor de recursos de energía, y predictor de demanda eléctrica. Esta tesis se enfoca en el desarrollo de un método que permita obtener perfiles de demanda diarios para comunidades aisladas que no cuentan con energía eléctrica, o que disponen de suministro eléctrico en horarios limitados. La propuesta es un método que incorpora un modelo que procesa entradas como: el número de habitantes, número de casas, número de escuelas, encuestas individuales por cada casa y número de luminarias del alumbrado público, obteniendo al final la demanda eléctrica total de la comunidad, y la demanda total considerando días festivos. Esta propuesta incorpora: módulo de entradas, módulo clasificador en base a mapas auto-organizados de Kohonen (SOM), módulo de búsqueda heurística, base de datos y módulos de generación de perfiles más específicos como por ejemplo de escuelas, y alumbrado público. Además en este trabajo de tesis, para la predicción del consumo eléctrico a corto plazo, se usa redes neuronales artificiales, por su capacidad en el tratamiento de las no linealidades. Requiere como entrada la demanda de un día pasado obteniendo a su salida la predicción de la demanda eléctrica en un horizonte de dos días. Utiliza entrenamiento en línea, permitiendo que el modelo vaya cambiando los parámetros neuronales en función del incremento de mediciones de la demanda eléctrica disponible en línea, para el entrenamiento. Para validar ambas propuestas se considera una micro-red ubicada en Huataconto, proyecto ESUSCON, que disponía de energía desde las 14:00 hasta 00:00. Se obtuvo un perfil diario de demanda de la comunidad, y se verificó que el perfil generado por el método en base a SOM se aproxima al perfil de demanda diario cuando se dispone de suministro ininterrumpido. El modelo neuronal de predicción de la demanda eléctrica propuesto e implementado, utiliza mediciones reales, obteniendo errores MAPE del 13%, y superando a modelos lineales tradicionales. Este modelo de estimación actualmente es usado en el sistema de gestión de energía EMS en la micro-red de Huatacondo. Como trabajo futuro se plantea trabajar en predictores de demanda que consideren sistemas de gestión de demanda, utilizando señales indicadoras del comportamiento del uso de la energía por parte de los usuarios aplicada a la micro-red Huatacondo.
140

Caracterización y detección de contribuyentes que presentan facturas falsas al SII mediante técnicas de data minig

Castellon González, Pamela Andrea January 2012 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / El presente trabajo de título tiene por objetivo identificar patrones de comportamiento de los contribuyentes declarantes de IVA, que transan facturas falsas para evadir impuestos. Para ello se utiliza el proceso KDD, el cual considera una serie de pasos y técnicas que permiten extraer conocimiento oculto a partir de un gran volumen de datos, para encontrar relaciones o patrones asociados a un cierto fenómeno. La utilización y venta de facturas falsas tiene un impacto significativo en la recaudación que percibe el Estado, generando además efectos negativos que ponen en riesgo la competitividad de las empresas. Históricamente, la evasión por este concepto ha representado entre un 20% a un 30% de la evasión en el IVA, alcanzando la cifra de $450 millones de pesos durante la crisis económica de 2009. Adicionalmente, la detección, investigación, sanción y cobro de los impuestos adeudados, provoca un importante costo administrativo, debido a la cantidad de facturas transadas en el año y al tiempo requerido para su detección. En ese contexto, resulta necesario contar con procedimientos sistematizados y efectivos que gestionen la información disponible para detectar potenciales defraudadores de impuestos, focalizando los recursos en aquellos contribuyentes de mayor riesgo tributario. Para la construcción del vector de características se utiliza la información de casos registrados con facturas falsas en el año 2006, considerando información del pago de impuestos en tal período, características particulares, comportamiento histórico en diferentes etapas de su ciclo de vida e indicadores del comportamiento de sus relacionados, entre otros. En una primera instancia, se aplican técnicas de SOM y Gas Neuronal, para analizar el potencial de contribuyentes que tienen un buen o mal comportamiento tributario e identificar sus características más relevantes. Posteriormente, se utilizan Árboles de Decisión, Redes Neuronales y Redes Bayesianas, para identificar aquellas variables que están relacionadas con un comportamiento de fraude y/o no fraude y detectar patrones de conducta, estableciendo en qué medida se pueden predecir estos casos con la información disponible. El resultado indica que las variables que más discriminan entre fraude y no fraude en las micro y pequeñas empresas son el porcentaje de créditos generado por facturas, el resultado de las fiscalizaciones previas, la cantidad de facturas emitidas en el año y su relación con las facturas timbradas en los últimos dos años, el monto de IVA total declarado, la relación entre remanentes y créditos, los delitos e irregularidades históricas asociadas a facturas, y la participación en otras empresas. En las medianas y grandes empresas, en tanto, las variables más relevantes son la cantidad de remanente acumulado, el porcentaje de crédito asociado a facturas, el total de créditos, la relación entre gastos rechazados y activos, el capital efectivo, la cantidad de irregularidades previas asociadas a facturas, la cantidad de fiscalizaciones históricas, y el número de representantes legales. En relación a los modelos predictivos, el mejor resultado se obtuvo con la red neuronal, donde el porcentaje de casos con fraude correctamente asignado fue de un 92% para las micro y pequeñas empresas, y de 89% para las empresas medianas y grandes. De acuerdo a esto y al potencial universo de usuarios de facturas falsas (120.768 empresas), se estima que con los modelos obtenidos se puede generar un potencial de recaudación de $101.446 millones de pesos al año, lo que permitiría reducir la evasión por concepto de IVA de manera significativa. Finalmente, se concluye que es posible caracterizar y predecir contribuyentes que evaden impuestos a través de facturas falsas utilizando técnicas de Data Mining, y que los factores que inciden en la probabilidad que un contribuyente utilice facturas falsas dependen del tamaño o segmento del contribuyente, relación que hasta el momento se establecía sólo de manera intuitiva. Se recomienda, para trabajos futuros, generar nuevas variables de comportamiento históricas relacionadas con fiscalizaciones y cobertura, explorar otros métodos para el preprocesamiento y selección de las variables, con los que eventualmente podrían obtenerse resultados diferentes. Igualmente, sería interesante explorar técnicas de validación cruzada y aplicar otras técnicas de data mining para mejorar la predicción de casos de fraude.

Page generated in 0.0644 seconds