• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 2
  • 2
  • Tagged with
  • 36
  • 36
  • 25
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Estadística Experimental (MA143), ciclo 2014-0

Ognio, Carmen, Laines, Blanca, Ventura, Susana, Cárdenas, Celia, Aliaga, Elmer, Chávez Ramos, Manuel Raymundo, Piña Rucoba, Gilber, Menacho, César, Silvestre, Jim, Cuadros, Gonzalo 29 November 2013 (has links)
Cuaderno de trabajo del curso Estadística Experimental (MA143), que corresponde al ciclo 2014-0. El curso está destinado para administradores y comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, que constituyen herramientas muy útiles para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera.
22

Estadística Experimental (MA143), ciclo 2014-1

Profesores de la Línea de Estadística 07 March 2014 (has links)
Cuaderno de trabajo del curso Estadística Experimental (MA143), que corresponde al ciclo 2014-1. El curso comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, que constituyen herramientas muy útiles para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera. Contenido: inferencia estadística: estimación, prueba de hipótesis, prueba de independencia y homogeneidad de subpoblaciones, diseños experimentales, anlálisis de regresión y correlación lineal simple, regresión lineal múltiple, series de tiempo, método de atenuación exponencial.
23

Estadística Experimental (MA143), ciclo 2014-2

Profesores de la Línea de Estadística 06 August 2014 (has links)
Cuaderno de trabajo del curso Estadística Experimental (MA143), que corresponde al ciclo 2013-2. El curso está destinado para administradores y comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, que constituyen herramientas muy útiles para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera.
24

Pronóstico de Caudales de las Cuencas de Betania y Bío-Bío Utilizando Métodos Estadísticos

Court Benvenuto, Sebastián Andrés January 2008 (has links)
El objetivo general del presente trabajo es modelar, explicar y predecir el nivel de caudal de las cuencas de Betania y Bío-Bío, ubicadas en Colombia y Chile respectivamente, con el objeto de mejorar la comprensión del fenómeno y la planificación energética por parte de la empresa ENDESA Chile. ENDESA Chile posee un área de profesionales que dedica parte de su trabajo a modelar y pronosticar los caudales de, entre otras, las cuencas antes mencionadas. Si bien los resultados de dichas predicciones no son insuficientes, se desea mejorar de forma importante la precisión de las mismas; llegando, en lo posible, a un error cercano al 20%. A partir de la información histórica proporcionada por la empresa y de otras fuentes meteorológicas especializadas, se determinaron modelos de dos tipos. En primer lugar, los modelos de series de tiempo usuales, con pequeñas modificaciones, para llevarlos a los conocidos como modelos PAR y PARX. En segundo lugar, se intentó utilizar modelos no lineales de redes neuronales artificiales para explorar las posibles no linealidades que pudiese poseer el problema. Finalmente, se clasificaron los caudales en tres niveles, a modo de resumir la información presentada por los modelos. Para la creación, estimación y calibración de los modelos se utilizaron diversas técnicas estadísticas. Entre ellas destacan el análisis de componentes principales para reducir la dimensionalidad de variables climáticas, el test de normalidad de Shapiro-Wilks y técnicas de calibración y validación de modelos, entre otras. El resultado al comparar los dos tipos de modelos arrojó que, si bien los modelos de redes neuronales entregan mejores resultados en muchas ocasiones, la poca simplicidad y capacidad de explicación que poseen indican que es mejor la alternativa lineal, es decir, los modelos PAR/PARX de series de tiempo. Se concluye que es posible disminuir el error bajo el 20% utilizando técnicas estadísticas de estructura sencilla que permitan explicar y comprender la forma del fenómeno. Se recomienda finalmente, que la empresa ENDESA elija algunas de las alternativas de modelos planteados de acuerdo a sus intereses, es decir, menor error o mayor comprensión.
25

Proyección del Precio del Cobre: ¿Herramientas de Inteligencia Computacional o Series de Tiempo? En Busca de Pronósticos Ajustados para el Precio del Cobre en el Corto y Mediano Plazo.

Foix Castillo, Cristián Isaac January 2007 (has links)
Esta tesis tiene como objetivo la entrega de evidencias respecto a la potencia de las redes neuronales como herramienta para el pronóstico del precio anual del cobre. Con este fin se evaluó el desempeño predictivo, fuera de muestra, de diferentes redes neuronales de tipo multilayer perceptron, construidas sobre la base del precio rezagado del cobre y variables derivadas del mismo, tales como la última variación del precio y la desviación estándar de los últimos periodos. Los resultados conseguidos se contrastaron con los generados mediante la aplicación de los más tradicionales y exitosos modelos de series de tiempo (ARIMA, caminata aleatoria y promedio móvil). Adicionalmente, se construyeron modelos híbridos combinando modelos ARIMA y redes neuronales. En este caso, los errores de pronóstico fuera de muestra de los modelos de series de tiempo sirvieron para entrenar redes destinadas a la proyección de residuos. Con los residuos así pronosticados, se corrigieron las proyecciones iniciales de los modelos de series de tiempo. En términos generales, la metodología de trabajo aplicada en este estudio comprendió las siguientes tareas: selección de datos (precio anual del cobre refinado de la Bolsa de Metales de Londres entre los años 1913 y 2006); aplicación de transformaciones en los datos (escalamiento y transformación logarítmica); aplicación de redes neuronales, modelos de series de tiempo y modelos híbridos, junto con la programación de rutinas computacionales para la realización de pronósticos con un alcance de hasta 6 años; evaluación de resultados e identificación de las características de los modelos más exitosos. La calidad de los pronósticos generados se midió comparando el promedio y la desviación estándar de los errores porcentuales absolutos en el periodo comprendido entre los años 1977 y 2006, ventana de tiempo que abarca tanto fases ascendentes como descendentes del precio. Los resultados revelaron un mejor desempeño de los modelos de pronóstico basados en redes neuronales, con una reducción relativa del promedio del error porcentual absoluto (MAPE) de 30% respecto de los mejores modelos ARIMA y de hasta un 49% respecto a la caminata aleatoria, en pronósticos a más de dos años. De este modo, se estableció que el modelamiento no lineal a través de redes neuronales es capaz de aprovechar mejor la información contenida en los precios históricos considerados en el estudio. Por otra parte, en pronósticos a 1 año, el menor error alcanzado con la aplicación de un modelo híbrido (reducción relativa del MAPE de 1,5% respecto a redes neuronales, de 5,6% respecto a modelos ARIMA y de 13% respecto al camino aleatorio) evidenció que, mediante el trabajo conjunto con modelos de series de tiempo y redes neuronales, es posible conseguir pronósticos de mayor precisión a los generados con cada técnica por separado. Finalmente, la comparación de los pronósticos publicados por un prestigioso analista del mercado del cobre versus los resultados conseguidos con los mejores modelos seleccionados reveló la mayor precisión de estos últimos, con reducciones relativas del MAPE de 33% y 43% en proyecciones a 1 y 2 años respectivamente. El impacto que tiene el precio del cobre en la actividad minera (evaluación de proyectos, planificación de la producción, evaluación y control de los resultados de gestión y de negocios) y en la economía de nuestro país (alta participación del cobre en las exportaciones y en los ingresos fiscales), conjuntamente con los resultados observados en este estudio, hacen atractivo continuar con la investigación en torno al uso de herramientas de Inteligencia Computacional en el pronóstico del precio del cobre. Trabajos futuros podrían enfocarse en otras estrategias de aprendizaje, arquitecturas alternativas, incorporación de otras variables explicativas (stocks en semanas de consumos, índices de actividad económica, etc.), aplicación de heurísticas para el diseño de redes, evaluación de diferentes modelos híbridos y la aplicación de máquinas de soporte vectorial.
26

Propuesta de Modelo de Planificación de la Producción para la Linea de Candados de Offermanns Flood, Basados en el Modelo de Gestión de la Mejora Continua PDCA

Zuccarelli Offermanns, Gerardo Andrés January 2009 (has links)
No description available.
27

Impacto de variables macroeconómicas en el ciclo de precios de commodities minerales

Acosta Barriga, Fernando 30 December 2009 (has links)
Durante los últimos años los niveles de precios de los commodities han alcanzado valores sumamente altos, y los metales de uso industrial han tenido un rol importante en este boom. La explicación que se encuentra en la literatura es que ellos se ven directamente influenciados por las variaciones de la economía mundial, por lo que presentan un comportamiento cíclico, con períodos de precios altos y bajos. En este trabajo se realiza un estudio acerca de los precios de cinco metales industriales: aluminio, cobre, estaño, plomo y zinc. Lo que se busca es encontrar una relación entre el patrón temporal que se observa en sus precios con indicadores de la actividad macroeconómica mundial. En este caso se utilizan variables macroeconómicas de siete países importantes de la OCDE más China: índices de producción industrial, tasas de interés y tipos de cambio. Para esto, se utiliza la herramienta econométrica conocida como El Filtro de Kalman. Con ella, mediante una representación denominada Estado-Espacio, se obtiene un componente común a las cinco series de precios en estudio, que se postula es capaz de representar el estado general de la economía. Posteriormente se relaciona este factor con las variables macroeconómicas mencionadas, donde se estima una regresión entre el factor común y estos indicadores. Además, para sensibilizar estos resultados, mediante el uso de los Filtros de Hodrick-Prescott y Pasabanda, para cada serie se extrae un componente de tendencia y un componente cíclico, con la idea de ver la relación que existe entre ellos y los indicadores de la economía global. Finalmente se motiva un análisis acerca de la competitividad de países ricos en recursos mineros. Se pretende plantear la discusión de si tener una producción diversificada de metales provoca que una determinada empresa y país alcance una posición más competitiva en el mercado de estos commodities. Los resultados principales muestran que los precios de los commodities considerados en el análisis se ven afectados por un factor común a ellos. Al momento de relacionar este factor con los indicadores macroeconómicos no se encuentra una relación significativa, lo que cambia al utilizar nuevas variables representativas de estas economías (PIB e importaciones totales de China). Del análisis que se hace con las dos técnicas para filtrar las series de precios, se obtienen resultados que indican que el estaño es el metal que presenta las mayores diferencias con el resto. Respecto a la discusión sobre competitividad, se plantea que empresas con una dotación más diversificada de recursos son más competitivas al ser capaces de adoptar estrategias globales, las que les permiten acceder con mayor facilidad al recurso escaso, la tierra, y asegurar su producción en el largo plazo.
28

Deep learning para identificación de núcleos activos de galaxias por variabilidad

Miranda Castillo, Nicolás Martín January 2018 (has links)
Magíster en Ciencias, Mención Computación / En la presente era de datos masivos, la astronomía requiere de herramientas automatizadas para el análisis de información asociada al comportamiento de objetos a lo largo del tiempo. El desarrollo de proyectos de observación sinópticos plantea muchos desafíos en lo que respecta a obtener descripciones relevantes de los aspectos subyacentes de muchos procesos variables en el tiempo. En particular, el estudio de los Núcleos Activos de Galaxia (AGN) resulta de especial interés; dado su comportamiento estocástico en el tiempo y la singular estructura en la variación temporal de su emisión electromagnética. El uso de algoritmos de aprendizaje computacional ha sido de gran éxito en aspectos de identificación de objetos según su morfología y análisis espectral; es de mucho valor el replicar esos resultados en el análisis de dominio temporal. Con este fin es que se puso a prueba distintas configuraciones de arquitecturas de algoritmos de Deep Learning, en particular Convolutional Neural Networks y Recurrent Neural Networks, con el fin de realizar tareas de clasificación de AGN a partir de sus curvas de luz. Estos se pusieron a prueba sobre datos simulados mediante un modelo matemático y sobre 6102 curvas de luz reales obtenidas a partir de observaciones de los campos extragalácticos COSMOS, Stripe82 y XMM-LSS. Los resultados fueron favorables sobre datos simulados, alcanzando un puntaje ROC AUC máximo de 0.96, pero no así sobre datos reales, donde el puntaje máximo alcanzado fue de 0.55 ROC AUC. Esta diferencia puede explicarse debido al reducido número de datos reales del que se dispuso a la hora de entrenar los distintos clasificadores, y a que el modelo de simulación permitió generar un mucho mayor número de curvas de entrenamiento, lo cual permitió un mucho mejor aprendizaje a partir de estas. El presente trabajo entregó información cuantitativa sobre lo importantes que son ciertas características de las curvas de luz, en particular la regularidad de su muestreo y el número de observaciones, en el desempeño de estos tipos de modelos de clasificación de Deep Learning. Junto con esto, se plantea un flujo en el procedimiento de manejo de datos de curvas de luz para clasificación, desde su recolección desde archivos de formato estándar (FITS) hasta la validación de los modelos, que puede ser reutilizado en el futuro en aplicaciones de Deep Learning sobre series de tiempo. Se sugiere, además, el añadir en próximas implementaciones métodos para manejo de incertidumbre debido a ausencia de mediciones, tales como modelos gráficos, de estado oculto o estocásticos.
29

Estudio de tendencias en la región F sobre Jicamarca

Rojas Villalba, Enrique Luis Alfonso 11 March 2016 (has links)
Alrededor de 30 años atrás, algunos estudios de tendencias a largo plazo basados en modelos numéricos, postularon que debido al aumento de la concentración de ciertos gases de efecto invernadero, se produciría un enfriamiento y encogimiento de la región F de la ionósfera (Roble, 1989). A pesar de múltiples intentos de corroborar estas predicciones, hasta ahora no hay evidencia suficiente apoyando esta conjetura. La razón para esto no es la falta de mediciones ni la estimación de tendencias, que es relativamente sencilla de efectuar, sino, la determinación correcta de las incertidumbres estadísticas en éste análisis. Para verificar esta predicción, se ha realizado un estudio de la altura de la densidad máxima de la región F utilizando los datos producidos por la ionosonda del Radio Observatorio de Jicamarca. Las mediciones se extienden desde 1993 hasta 2012. En este trabajo, primero se discutirá el criterio utilizado para armar las series de tiempo a partir de los datos obtenidos, para luego presentar el procedimiento aplicado para determinar la tendencia en el región F, que es similar al usado por Ulich (1997). Además se discutirá la precisión de este estimado, siguiendo la técnica propuesta por Weatherhead (1998), que considera posibles correlaciones en la serie de tiempo.
30

[en] BRAZILIAN STOCK RETURN SERIES: VOLATILITY AND VALUE AT RISK / [es] SERIES DE RETORNOS DE ACCIONES BRASILERAS VOLATILIDAD Y VALOR EN RIESGO / [pt] SÉRIES DE RETORNOS DE AÇÕES BRASILEIRAS: VOLATILIDADE E VALOR EM RISCO

PAULO HENRIQUE SOTO COSTA 20 July 2001 (has links)
[pt] O objetivo principal do trabalho é o estudo dos resultados obtidos com a aplicação de diferentes modelos para estimar a volatilidade das ações brasileiras. Foram analisadas as séries de retornos diários de seis ações, num período de 1200 dias de pregão. Inicialmente, as séries foram estudadas quanto a suas propriedades estatísticas: estacionariedade, distribuição incondicional e independência. Concluiu-se que as séries são estacionárias na média, mas não houve conclusão quanto à variância, nesta análise inicial. A distribuição dos retornos não é normal, por apresentar leptocurtose. Os retornos mostraram dependência no tempo, linear e, principalmente, não linear. Modelada a dependência linear, foram aplicados dez modelos diferentes para tentar capturar a dependência não linear através da modelagem da volatilidade: os modelos foram avaliados, dentro e fora da amostra, pelos seus resíduos e pelos erros de previsão. Os resultados indicaram que os modelos menos elaborados tendem a representar pior o processo gerador dos dados, mas que os modelos pouco parcimoniosos são de difícil estimação e seus resultados não correspondem ao que seria esperado em função de sua sofisticação. As volatilidades estimadas pelos dez modelos foram utilizadas para prever valor em risco (VaR), usando- se dois processos para determinar os quantis das distribuições dos resíduos: distribuição empírica e teoria de valores extremos. Os resultados indicaram que os modelos menos elaborados prevêem melhor o VaR. Isto se deve à não estacionariedade das séries na variância, que fica evidente ao longo do trabalho. / [en] This thesis aims to study the results of applying different models to estimate Brazilian stock volatilities. The models are applied to six series of daily returns, and each series has 1200 days. We studied first the series` main statistical features: Stationarity, unconditional distribution and independence. We concluded that the series are mean stationary, but there was no conclusion on variance stationarity, in this first analysis. Return distribution is not normal, because of the high kurtosis. Returns showed time dependence, linear and, mainly, not linear. We modeled the linear dependence, and then applied ten different volatility models, in order to try to capture the non linear dependence. We evaluated the different models, in sample and out of sample, by analyzing their residuals and their forecast errors. The results showed that the less sophisticated models tend to give a worst representation of the data generating process; they also showed that the less parsimonious models are difficult to estimate, and their results are not as good as we could expect from their sophistication. We used the ten models` volatility forecasts to estimate value-at-risk (VaR) and two methods to estimate the residual distribution quantiles: empirical distribution and extreme value theory. The results showed that the less sophisticated models give better VaR estimates. This is a consequence of the variance non stationarity, that became apparent along the thesis. / [es] EL objetivo principal del trabajo es el estudio de los resultados obtenidos con la aplicación dediferentes modelos para estimar la volatilidad de las acciones brasileras. Fueron analizadas series de retornos diários de seis acciones, en un período de 1200 días de pregón. Inicialmente, las series fueron estudiadas con respecto a sus propriedades estadísticas: estacionalidad, distribucción incondicional e independencia. Se concluye que las series son estacionarias en la media, pero no se llega a ninguna conclusión respecto a la varianza, en este análisis inicial. La distribucción de los retornos no es normal, ya que presenta leptocurtosis. Los retornos muestran dependencia en el tempo, lineal y, principalmente, no lineal. Después de modelar la dependencia lineal, se aplicaron diez modelos diferentes para intentar capturar la dependencia no lineal modelando la volatilidad: los modelos fueron evaluados, dentro y fuera de la amostra, por sus residuos y por los errores de previsión. Los resultados indicaran que los modelos menos elaborados tienden a representar peor el proceso generador de los datos, mientras que los modelos poco parcimoniosos son de difícil estimación y sus resultados no corresponden al que sería esperado en función de su sofisticación. Las volatilidades estimadas por los diez modelos se utilizaron para prever valor en riesgo (VaR), usando dos procesos para determinar los quantis de las distribuciones de los residuos: distribucción empírica y teoría de valores extremos. Los resultados indicaran que los modelos menos elaborados preveen mejor el VaR. Esto se debe a la no estacionalidad de las series en la varianza, que resulta evidente a lo largo del trabajo.

Page generated in 0.0803 seconds