• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 24
  • Tagged with
  • 171
  • 171
  • 81
  • 80
  • 55
  • 47
  • 29
  • 27
  • 18
  • 16
  • 14
  • 13
  • 13
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Un modelo de integración de técnicas de CLAUSURA y CSP de restricciones temporales: aplicación a problemas de Scheduling

Alfonso Galipienso, María Isabel 27 June 2001 (has links)
No description available.
42

Distribuciones de Clases No Balanceadas: Métricas, Análisis de Complejidad y Algoritmos de Aprendizaje

Garcí­a Jiménez, Vicente 18 February 2010 (has links)
El problema de las distribuciones no balanceadas de datos entre clases ha recibido una considerable atención en disciplinas como el Aprendizaje Automático, el Reconocimiento de Formas y la Minerìa de Datos. Un conjunto de dos clases se dice que es no balanceado si una de las clases (mayoritaria) está significativamente más representada que la otra (minoritaria). Este tipo de complejidad de los datos puede conducir, en métodos tradicionales de clasificación, a aprendizajes sesgados en perjuicio de la clase minoritaria que, usualmente, contiene los casos de mayor interés. Esta deficiencia es particularmente importante en aplicaciones reales donde el coste por clasificar erróneamente los ejemplos de la clase menos representada es muy elevado.Actualmente, es posible identificar tres grandes lí¬neas de investigación sobre dicha problemática. En este sentido, la presente tesis doctoral aborda el problema del desbalance desde las perspectivas de evaluación del aprendizaje, solución y análisis de la complejidad de los datos.En el caso de las métricas de efectividad, se propone una nueva forma de evaluar los clasificadores que solventa una posible desventaja de las métricas tradicionales, las cuales no consideran la magnitud ni el sentido de la diferencia entre las tasas de aciertos por clase. Diversos análisis sobre la nueva métrica, denominada IBA, empleando medidas de correlación de Pearson y cambios en la matriz de confusión, la confirman como una medida robusta y eficaz en entornos desbalanceados.Dentro del campo de las soluciones para tratar el desbalance, se proponen nuevos esquemas para reducir/incrementar la talla de las clases mayoritaria/minoritaria, respectivamente. Asimismo, se presenta una solución algorí¬tmica para la regla del vecino más cercano con el objetivo de favorecer la clasificación de muestras de la clase minoritaria. Este análisis no sólo se centra en el beneficio que podrá representar cada una de las soluciones, sino también en cómo estas se ven afectadas por la naturaleza del clasificador, el sesgo de los datos y las métricas de efectividad.Finalmente, la tercera línea de investigación abordada en esta tesis se centra en analizar los efectos sobre el aprendizaje que produce la presencia en los datos de complejidades como el desbalance y solapamiento. En particular, se estudian dos escenarios. En el primero, denominado homogéneo, las clases mayoritaria y minoritaria mantienen esta misma relación en la región de solapamiento. En el segundo, por el contrario, la clase minoritaria se convierte en la más representada en dicha región. Los resultados muestran que el desbalance local en la región de solapamiento puede ser más determinante que el desbalance global y que la talla de dicha región.
43

Modelos de redes neuronales y el precio del cobre : una perspectiva sorprendente : evidencias para el período enero de 2003-diciembre de 2004

Brunel Lagreze, Jean Pierre 12 1900 (has links)
Tesis para optar al grado de Magíster en Finanzas / No cabe duda de que el mayor reto para administradores e investigadores en el campo de las finanzas, es la presencia de incertidumbre acerca de los acontecimientos futuros, y de cómo estos pueden afectar el valor de un determinado portafolio de inversión. De ahí, el estudio, análisis e implementación, a lo largo de los años, de diversas teorías y técnicas de predicción que permitieran disminuir la incertidumbre asociada a la toma de dediciones financieras, y su posterior efecto sobre un portafolio. En este sentido, recordadas son la teoría moderna de carteras (MPT) de Harry Markowitz, la teoría de los mercados eficientes y el CAPM planteada por Fama (1970) y Sharpe (1964), así como los modelos Multifactor de Fama-French (1992), entre otros. Sin embargo, la mayoría de estas teorías y técnicas se basan en la linealidad de las relaciones y en supuestos específicos acerca de los retornos de los activos estudiados. Considerando lo anterior, autores como los hermanos Parisi han aportado a la literatura financiera, a través del uso de sistemas predictivos no paramétricos, tales como redes neuronales, lógica borrosa y algoritmos genéticos para proyectar variables financieras y conformar portafolios de inversión. Dichas técnicas no basan sus capacidades predictivas en la utilización de supuestos específicos acerca de los retornos de los activos financieros, mostrando que es posible obtener altas capacidades predictivas, estadísticamente significativas y económicamente rentables, sin depender de dichos supuestos. No obstante lo anterior, destaca el hecho de que la mayoría de estos estudios han sido aplicados a mercados de acciones, tasas de interés, monedas y metales preciosos, dejando al mercado de metales base, y en lo específico al cobre, en un segundo plano. Lo anterior resulta extraño considerando que portafolios compuestos exclusivamente por este tipo de metales, han superado en rentabilidad a portafolios de renta fija y variable, siendo lo suficientemente rentables como para proteger a los inversionistas de la inflación. Lo anterior es claramente apreciable en la rentabilidad obtenida, en los años 2003 y 2004, por el cobre, aluminio y cinc en la Bolsa de Metales de Londres. De esta forma, y con el objetivo de realizar un aporte, esta investigación analiza la capacidad de los modelos de redes neuronales para predecir el signo de las variaciones semanales del precio del cobre en la Bolsa de Metales de Londres, comparado sus resultados con la capacidad predictiva de distintos modelos utilizados en el mundo de las finanzas. Lo anterior, entendiendo que la predicción de la dirección del movimiento del precio es relevante para desarrollar estrategias de transacción efectivas, las cuales pueden arrojar mejores resultados que aquellas basadas en la proyección del valor de la variable observada (Leung, Daouk & Chen, 2000). En el mismo orden de ideas, esta investigación se centrará en el empleo de redes neuronales multicapas dinámicas, con aprendizaje supervisado, así como alguna de sus variantes (Redes Ward). Se utilizarán estos modelos de redes ya que actúan como funciones mapeadoras universales, desempeñándose muy bien con las series de tiempo. Adicionalmente, un hecho importante en esta investigación, es que la aplicación de redes neuronales dinámicas, a través del uso de las técnicas “Rolling” y “Recursivo”, permiten encontrar relaciones cambiantes entre las variables a lo largo del tiempo, es decir, esto permite que los modelos sean alimentados semana a semana con la última información disponible, adaptando sus parámetros a las características más recientes de la muestra, y por lo tanto del mercado. En particular, el funcionamiento “Recursivo” agrega, a través de un algoritmo iterativo, nueva información a la ya estudiada por la red. Asimismo, el funcionamiento “Rolling” trata de capturar el hecho de que los agentes, al formar sus expectativas, no utilizan la totalidad la información histórica, sino que desechan la más antigua a medida que ésta se va haciendo obsoleta, agregando la información más reciente a su conjunto de información relevante para tomar decisiones. En lo especifico, las conclusiones del estudio apuntan a que, efectivamente, se pueden lograr capacidades predictivas estadísticamente significativas y económicamente rentables para el precio del cobre, a través del uso de Redes Neuronales Dinámicas, logrando un 66,7% de acierto en la predicción del signo de la variación semanal del precio, para el período comprendido entre enero de 2003 y diciembre de 2004. Esto último implicó que, para el mejor modelo neuronal analizado, se obtuviera una rentabilidad de un 138,13% durante el período, superando ampliamente a otros modelos utilizados en finanzas, como los modelos ARIMAX, Análisis Técnico y osciladores. Finalmente, el resto de la presente investigación se estructura como sigue: en el capítulo dos se presentan los objetivos y metodología utilizada en este estudio; en el capítulo tres se presenta una breve descripción del mercado del cobre, poniendo énfasis en su estructura, participantes, proceso de formación de precios y comercialización; el capítulo cuatro desarrolla el marco teórico de la investigación, profundizando los principales aspectos que envuelven a las redes neuronales; en el capitulo cinco se presenta el estudio empírico realizado, para finalmente en el capitulo seis presentar las principales conclusiones y líneas futuras de acción.
44

Predicción de Signo Diario y Semanal del Benchmark UF 5 Mediante el uso de Redes Neuronales Artificiales / Evidencia para Chile

Robles Silva, Daniel January 2008 (has links)
Este trabajo persigue evaluar la rentabilidad que habría obtenido un inversionista que hubiese seguido las recomendaciones de Redes Neuronales Artificiales para la conformación semanal de sus carteras de bonos durante casi 245 semanas. A la vez, se busca predecir la rentabilidad de un inversionista en periodos cortos de tiempo, prediciendo los cambios diarios, de las variaciones porcentuales de las variables de los distintos modelos. Ambos casos fueron comparados con modelos ingenuos de Buy & Hold, para los mismos intervalos. En este trabajo se encontró que la red Ward tenía satisfactoria capacidad predictiva para el signo que seguirá el cambio del precio de un bono. Se encontró que para periodos cortos de tiempo, lapsos de un año con variables diarias, todos los factores son determinantes al momento de la predicción (el monto transado, la tasa interbancaria, el Benchmarck rezagado). Mientras que para los promedios semanales, dentro de un lapso de 4 años, se encontró que el monto transado no era una variable significativa, por lo que se intuye que su efecto en la predicción se basa exclusivamente en las transacciones diarias, debido a que está sujeto a una mayor volatilidad. Finalmente se confirma que el Benchmark UF‐5 es altamente autoregresivo, y sólo para periodos cortos de tiempo, variables como el monto transado y la tasa interbancaria, reflejan un aporte significativo para la predicción del Benchmark.
45

Redes neuronales artificiales auto-organizativas dinámicas

Serrano Musalem, Álvaro January 2015 (has links)
Ingeniero Civil Eléctrico / El análisis de series de tiempo es de gran importancia ya que la gran mayoría de los datos que se miden cada día son función del tiempo. Su estudio está motivado tanto por el deseo de entender la naturaleza del sistema que se está midiendo, como también predecir su comportamiento futuro. Una técnica de análisis consiste en realizar una cuantificación espacio temporal, es decir, identificar y clasificar las secuencias de datos que presenten una dinámica espacio temporal similar. La red neuronal artificial (RNA) Gas Neuronal Creciente (GNG: Growing Neural Gas) es un algoritmo diseñado para la cuantificación espacial de datos. Este trabajo de título busca extender la cuantificación espacial del algoritmo GNG a una cuantificación espacio temporal en series de tiempo. La extensión se realiza sobre la unidad básica, la neurona, la cual es extendida a un segmento temporal. Se proponen dos extensiones de GNG las cuales son: (i) uso de conexiones temporales en lugar de conexiones espaciales, y (ii) utilización de segmentos en lugar de puntos. Los algoritmos propuestos se llaman GSG (Growing Segment Gas) y MGSG (Merge Growing Neural Gas). Este último introduce en GSG el uso de contextos para la cuantificación espacio temporal. Dada la forma en la que se extendió el algoritmo GNG, los algoritmos propuestos GSG y MGSG, resultan ser una generalización de GNG y MGNG, respectivamente. El desempeño de GSG y MGSG se evalúa utilizando como métrica, el error de cuantificación temporal (TQE) para distintos retardos y se comparan los resultados con los obtenidos con la redes GNG y MGNG. Los resultados obtenidos en MGSG muestran una ventaja estadísticamente significativa en 3 de las 4 series de datos evaluadas, mientras que GSG sólo muestra ventajas sobre GNG en 2 de las 4 series de datos evaluadas. Además se muestran ventajas en términos de la visualización que otorgan la redes resultantes de GSG y MGSG. Considerando el buen desempeño de MGSG se propone como trabajo futuro construir algoritmos predictivos basados en MGSG para el estudio de series de tiempo. Por último los algoritmos propuestos son una primera aproximación a la cuantificación espacio temporal utilizando segmentos, por esta razón se exponen posibles mejoras de los algoritmos propuestos para trabajos futuros.
46

Administración de carteras con redes neuronales mediante metodología Rolling.

Gutiérrez Márquez, Marcelo January 2004 (has links)
Este trabajo persigue evaluar la rentabilidad que habría obtenido un inversionista que hubiese seguido las recomendaciones de Redes Neuronales Artificiales para la conformación semanal de sus carteras durante casi 4 años. Lo que se busca es ver no sólo si la proyección de las RNA constituyen una mejor predicción del retorno de las acciones que el promedio histórico de estos, si no que además busca ver si al usar una metodología Rolling para las predicciones se puede lograr un mejor desempeño de las RNA y por ende una mayor rentabilidad de la conformación de carteras. Para esto se usa una red Ward que se vuelve a entrenar con los nuevos datos cada vez que se quiere proyectar una nueva semana (Método Rolling). En este estudio se usaron datos de 29 de las 30 acciones del Dow Jones Industrial Average para el período comprendido entre el 4 de febrero de 1994 y el 10 de septiembre del 2004. Como Benchmark para el método propuesto se usó la metodología tradicional de conformación de carteras tomando el coeficiente Beta de correlación con el mercado como medida del riesgo y el promedio de los retornos históricos como medida del retorno esperado, este método se denominará como portfolios por Betas. En este trabajo se encontró que la red Ward tenía excelente capacidad predictiva para el signo que seguirá el cambio del precio de una acción. También se mostró que cuando se permite venta corta la estrategia por RNA obtiene mayor rentabilidad acumulada en promedio que la estrategia por Betas. En cambio, cuando no se permite la venta corta los portfolios por Betas superan a los de RNA en este mismo indicador
47

Integración de Sistema Clasificador de Productos Vitivinícolas con Nariz Electrónica

Rivas Zeballos, Ignacio Andrés January 2009 (has links)
No autorizado por el autor para ser publicada a texto completo / El objetivo de esta memoria de título es la integración de un cromatógrafo rápido de gases que mide los aromas de vinos con un sistema diseñado para clasificarlos según las cepas Cabernet Sauvignon, Merlot y Carménère. El sistema integrado está compuesto por una nariz electrónica (cromatógrafo rápido de gases) que genera una señal con las características del aroma del vino y que interactúa con dos programas computacionales; el primero, de tipo propietario para controlar la nariz electrónica y el segundo, desarrollado en el Laboratorio de Sistemas de Instrumentación que clasifica vinos chilenos. En el desarrollo de la integración se diseña un nuevo clasificador que permite distinguir a aquellos líquidos que tienen compuestos volátiles orgánicos (CVO) que no son vinos. El clasificador es implementado con Máquinas de Soporte Vectorial Una-Clase alcanzando un porcentaje de clasificaciones correctas de 99,42%. Cuando una muestra es presentada a la nariz electrónica, este clasificador verifica si es vino. Si la muestra es vino, entonces es pasado al clasificador diseñado previamente el cual fue mejorado, alcanzando un 93.44% de clasificaciones correctas. El resultado es el desarrollo del software AdiVINO que entrega una interfaz amigable con el usuario. En este software se implementaron además funcionalidades para simplificar la operatoria que el usuario realiza con el sistema en la obtención de datos y en la clasificación de las muestras. Otra característica de este programa, es la reducción de los tiempos de procesamiento de los datos y su representación gráfica, alcanzando tiempos inferiores al segundo en la clasificación y 17 segundos para la representación gráfica. En conclusión, los objetivos de esta memoria fueron cumplidos completamente al desarrollar un sistema portátil permitiendo la movilidad del sistema a los lugares de producción de vinos para la realización de pruebas in-situ.
48

Conversión de Texto a Voz Mediante Reglas y Redes Neuronales: Traducción de Texto a fonemas más acentuación y puntuación

Smith Torres, Roberto Ignacio January 2009 (has links)
Para facilitar el acceso de las personas no-videntes al contenido de un texto se han desarrollado diversos sistemas, tanto mecánicos como electrónicos. De todos ellos, los lectores computarizados de textos han demostrado presentar mayores ventajas en cuanto a su facilidad de uso, cobertura, costo y calidad. Además, permiten el acceso directo a textos de publicación periódica, como diarios o páginas web. Los de mejor calidad de síntesis descomponen el problema de generación de voz en etapas sucesivas para resolver problemas como: acentuación, conversión de texto a fonemas, puntuación,incorporación de entonación, y síntesis de voz. En particular, para las etapas de acentuación y conversión de texto a fonemas, se han utilizado varias metodologías como: redes neuronales, reglas por defecto, pronunciación por analogía y análisis morfológico. En esta memoria se desarrollaron dos métodos alternativos para la conversión de texto a fonemas: redes neuronales y reglas por defecto. Existe un sistema llamado NETtalk en el que se desarrolló un método de conversión de texto a fonemas para el idioma inglés, que utiliza redes neuronales de tipo perceptrón demúltiples capas. En este trabajo de título se realizó una adaptación de NETtalk para conversión de texto a fonemas más acentuación en el español hablado en Chile. Se usaron tres arquitecturas de red: traducción a fonemas, traducción más acentuación, y sólo acentuación. Se elaboraron conjuntos para entrenamiento, validación y prueba, utilizando para ello criterios basados en reglas fonéticas y ortográficas. El desempeño de la red que traduce texto a fonemas y acentúa, medido en el conjunto de prueba, fue 100% en traducción y 95,8% en acentuación. Se detectaron dos causas de error: conjunto de entrenamiento poco diverso y segmentos de palabras que se escriben igual pero tienen diferente acentuación. Para mejorar el desempeño de las redes se propone incorporar al conjunto de entrenamiento palabras con casos no contemplados y separar la traducción y la acentuación en redes especializadas. Se detectó empíricamente que las últimas 6 letras definen la vocal acentuada de cualquier palabra. Para la acentuación se propone usar una red que reciba esas 6 letras y codifique la posición del acento en la capa de salida. Para la traducción a fonemas, se propone usar una red que reciba 3 letras, que es la información necesaria para detectar el fonema mediante reglas. Alternativamente se desarrolló un método de conversión de texto a fonemas del español chileno más acentuación utilizando reglas fonéticas y ortográficas. El desempeño obtenido fue 100% en lostresconjuntosdepalabras,mejor que lo obtenido con redes neuronales. Se midió el tiempo requerido para traducir el conjunto de entrenamiento de 1491 palabras a fonemas más acentuación mediante reglas, en un computador Pentium II de 350MHz con 288 MB de RAM, y fue 0,11 segundos, mientras que la red neuronal demora 620 veces ese tiempo. Se desarrolló una aplicación en C como apoyo a la lectura de no-videntes, controlada íntegramente a través del teclado, llamada Asistente de Lectura, que convierte texto a fonemas con acentuación mediante reglas y redes neuronales. Para realizar síntesis de voz se utilizó un paquete de desarrollo de software para Windows 3.1 de Creative Labs. La aplicación permite abrir y traducir archivos de texto a fonemas, controlar la reproducción del texto y las características de la voz sintetizada. Al evaluar la calidad de síntesis con 10 usuarios se concluyó que la voz de español chileno presenta alta inteligibilidad pero es deficiente en naturalidad. Por ello se recomienda crear una nueva aplicación, utilizando las herramientas y estándares gratuitos para el diseño de conversores de texto a voz, y realizar un estudio detallado de las características fonéticas y prosódicas del español chileno para elaborar una base de datos de voz de buena calidad.
49

Modelación geoestadística del contenido de carbono orgánico del suelo entre las regiones de Valparaíso y de Los Ríos, Chile

Padarian Campusano, José Sergei January 2011 (has links)
Memoria para optar al Título Profesional de Ingeniero Agrónomo mención Manejo de Suelos y Aguas / El suelo es uno de los grandes reservorios de carbono del planeta. El cambio que se genera al pasar de ecosistemas naturales a agroecosistemas genera pérdidas importantes del carbono orgánico (CO) acumulado, por lo que es necesario disponer de métodos adecuados que permitan evaluar su estado. Para esto se utilizaron 440 series de suelos con el objetivo de modelar la distribución espacial del CO en los suelos de Chile entre las Regiones de Valparaíso y de Los Ríos (32o 9’ 2” – 40o 40’ 52” lat. S y 0 – 600 m.s.n.m.) mediante el uso de técnicas geoestadísticas con el fin de estimar la cantidad de CO almacenado en los primeros 25 cm de suelo. Se utilizaron dos líneas de modelación, una con todos los datos (0,3 – 20% CO) y otra que excluyó 19 outliers (0,3 – 11,8% CO) y se utilizaron cuatro métodos: Kriging Ordinario, Co-Kriging, Kriging Ordinario con semivariogramas locales y Kriging de residuales de red neuronal. Todos los métodos mostraron buenos resultados (R2 > 0;67) luego de comparar los valores reales de CO con los predichos por los modelos mediante validación cruzada. Sus desempeños mostraron ser dependientes de la línea de modelación, reforzando la influencia de los outliers en el proceso de modelación. La cantidad total y promedio por hectárea de los suelos del área de estudio fue estimada en 873,58 43 Tg (1012 g) y 75,12 3,18 Mg ha-1 respectivamente. / Soil is one of the major reservoirs of carbon on Earth. Changes generated when moving from natural ecosystems to agroecosystems cause significant losses of the organic carbon (OC) accumulated on it, making necessary to have appropriate methods to evaluate its status. To achieve this, data of 440 soil series were used with the objective of modelling the spatial distribution of soil organic carbon (SOC) between Valparaíso and Los Ríos Regions (32o 9’ 2” – 40 o 40’ 52” lat. S and 0 – 600 m.a.s.l) using geostatistical techniques, in order to estimate the amount of OC stored in the first 25 cm. Two modelling lines were used, one with all the data (0,3 – 20% OC) and another that excluded 19 outliers (0,3 – 11,8% OC), using four methods: Ordinary Kriging, Co-Kriging, Ordinary Kriging with local semivariograms and Artificial Neural Network Residual Kriging. All methods showed good results (R2 > 0;67) after comparing the real values of SOC with those predicted by the models using cross-validation. Performance proved to be dependent on the modelling line, reinforcing the influence of outliers in the modelling process. Total SOC and average SOC per hectare in the study area was estimated at 873,58 43 Tg (1012 g) and 75,12 3,18 Mg ha-1 respectively.
50

Elaboración de la cartografía climática de temperaturas y precipitación mediante redes neuronales artificiales : caso de estudio en la Región del Libertador Bernardo O"Higgins

Neira Román, Fernando Andrés January 2010 (has links)
Memoria para optar al título profesional de Ingeniero en Recursos Naturales Renovables / La cartografía climática es de interés científico, económico y ambiental. En el caso de Chile, actualmente se encuentra dispersa, en escala inapropiada o no disponible en formato digital. Esta se ha generado a partir de diferentes áreas, y elaborado tradicionalmente mediante la interpolación de datos de estaciones meteorológicas, usando métodos lineales o trazado experto de isolíneas. Los métodos lineales están limitados debido a su naturaleza (Lam, 1983; Dowd, 1994), en cambio el trazado isolíneas se ve limitado por el conocimiento de la zona. Actualmente las Redes Neuronales Artificiales (RNA) buscan superar estas limitaciones, y poseen la ventaja de ser funciones no lineales con capacidad de aprendizaje. Este estudio es sobre la elaboración de cartografía climática de temperatura media mensual (TMM) y precipitación media mensual (PMM) de la Región del Libertador General Bernardo O’Higgins, mediante el uso de RNA. Para este fin se hizo usó de información de TMM y PMM de estaciones meteorológicas, la que se complementó con información fisiográfica (Latitud, Longitud, Altitud, Exposición, Pendiente, Vegetación, Distancia de la costa). Esto sirvió de insumo para los modelos topoclimáticos mensuales de RNA multicapa del tipo “feed-forward”. Cada mes contó con tres modelos, diferenciados en la cantidad variables usadas. El primer escenario descartó variables mediante análisis stepwise, dejando aquellas que fueron significativas para elaborar modelos mensuales (SimSTEP). El segundo usó todas las variables fisiográficas (SimE7), y el tercero sólo tomó en cuenta latitud, longitud y altitud (SimE3). Posteriormente estos modelos fueron comparados con un modelo global (WorldClim). Los tres modelos, mostraron una alta correlación con los datos de estaciones meteorológicas (R2 entre 70% y 92%), dando cuenta de una buena habilidad de generalización (R2 de 70% en promedio para el subgrupo de validación). La espacialización de los datos mostró una estrecha relación de las variables de entrada y la representación cartográfica, y la distribución espacial de las estaciones. Al comparar con WorldClim, SimE3 mostró una mayor similitud visual y numérica. Las RNA son una herramienta útil para estudios ambientales. Pero al igual que otro tipo de modelos se ven limitados por los datos, en este caso la baja densidad de estaciones fue relevante en la representación cartográfica. / Climate Mapping has scientific, economic and environmental relevance. In Chile, the information is currently scattered, in inappropriate scale or not available in digital. Usually generated from different areas, and traditionally made by interpolating weather data by linear methods or expert knowledge. The linear methods are limited due to his nature (Lam, 1983; Dowd, 1994); and expert contours are limited by the knowledge of the area. Currently Artificial Neural Networks (ANN) tries to overcome these limitations, have the advantage of being nonlinear functions with learning ability. This study is about climate mapping monthly mean temperature and precipitation (MMT and MMP) in the Region of Libertador General Bernardo O'Higgins, using ANN. MMT and MMP Information was gathered from meteorological stations and completed with physiographic data (latitude, longitude, altitude, exposure, slope, vegetation, coast distance). This information was used as input for monthly models of topoclimate ANN multilayer feed-forward. Each month had three models, with different variables. The first model discriminate significant variables using a stepwise analysis (SimSTEP), second model used all physiographic variables (SimE7), and the third model used latitude, longitude and altitude (SimE3). These models were compared with a global model (WorldClim). These models showed high correlation with the weather stations data (R2 between 70% and 92%), and good generalization ability (R2 over 70% average in validation subgroup). Spatialized data showed close relationship with input variables and cartographic representation and the station spatial distribution. These models were compared with Worldclim, SimE3 showed a visual and numerical the best similarity. ANNs area useful tool for environmental and interpolation studies. However like other models are limited by the data density, in this case the low density of stations in the study area.

Page generated in 0.1028 seconds