• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 2
  • 1
  • Tagged with
  • 19
  • 19
  • 16
  • 15
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Predicción del tiempo de vida remanente de estructuras sujetas a fatiga en base al monitoreo

García Cornejo, Sebastián Miguel January 2017 (has links)
Ingeniero Civil Mecánico / Durante la vida de un componente, cambios micro estructurales emergen y evolucionan en el tiempo. Actualmente, se utilizan modelos clásicos de degradación empíricos que permiten monitorear el daño del componente. Sin embargo, estos utilizan indicadores de daño que no pueden ser detectados en etapas tempranas de degradación y cuando finalmente pueden ser detectadas la vida del componente esta próxima a acabar. Dado lo anterior, es de gran interés detectar el daño lo antes posible. Con la implementación de un modelo de redes bayesianas dinámicas es posible diagnosticar el daño de una estructura observando la evolución de los precursores de daño. En el presente trabajo se busca implementar un modelo para el diagnóstico y pronóstico del daño de una bomba sujeta a fatiga en base a distintas señales recogidas de la bomba: vibraciones, caudal, potencia, intensidad y presión diferencial. El modelo mencionado fue construido en base a redes bayesianas dinámicas que son capaces de analizar el comportamiento no lineal y no gaussiano de la degradación por fatiga y también capaces de mezclar distintos tipos de evidencia (señales) para reducir la incertidumbre acerca del daño de la estructura. El proceso de inferencia en la red bayesiana dinámica es modelado a través del uso de la técnica de filtro de partículas utilizando el software R para la implementación del modelo. Finalmente, con los resultados obtenidos es posible realizar la predicción del tiempo de vida remanente de la estructura sujeta a fatiga. El presente informe da cuenta del trabajo paso a paso realizado por el alumno para llegar al resultado final. Se realiza en primer lugar una presentación de los antecedentes teóricos que son utilizados en la realización del trabajo, junto a la metodología desarrollada. Se da paso luego a la presentación de los resultados obtenidos por el alumno, los cuales pueden ser divididos en dos etapas, una primera etapa de recepción y tratamiento de los datos duros para encontrar información útil para desarrollar la segunda etapa, donde se lleva a cabo el desarrollo del filtro de partículas para obtener finalmente un pronóstico de la vida de la bomba estudiada y la determinación de la vida útil remanente de esta. Los resultados obtenidos son considerados positivos, ya que se logra una buena estimación del deterioro y tiempo de falla de la bomba y se cumplen los objetivos del trabajo de título.
2

Filtrado bayesiano para estimación de parámetros orbitales en estrellas binarias visuales

Clavería Vega, Rubén Matías January 2015 (has links)
Ingeniero Civil Eléctrico / La masa es la propiedad más crítica de una estrella, ya que determina en gran medida su estructura y evolución. Se estima que un porcentaje mayoritario de las estrellas observadas en el cielo corresponde no a estrellas individuales sino a sistemas estelares múltiples. El estudio del movimiento relativo entre los componentes de un sistema estelar es la principal herramienta para calcular masas estelares; de hecho, la mayor parte de las estrellas fuera del Sistema Solar cuya masa ha podido ser determinada de manera directa corresponde a estrellas binarias ─sistemas compuestos por dos estrellas ligadas gravitacionalmente─. De esta manera, los sistemas estelares múltiples constituyen la base observacional de la teoría de estructura y evolución estelar. Dadas las características y el volumen de las observaciones astronómicas, es necesario que los métodos computacionales utilizados en el estudio de sistemas estelares múltiples sean automáticos y robustos frente a la existencia de ruido de observación, brechas temporales y pérdida de datos. Con esta motivación, el presente Trabajo de Título propone y evalúa un método de estimación automática de elementos orbitales (y con ello, de la masa total) para estrellas binarias visuales. La herramienta desarrollada utiliza un enfoque Bayesiano, planteando un esquema de estimación basado en Filtro de Partículas. En este esquema, los parámetros orbitales son formulados como un vector de estado que evoluciona a través del tiempo ─concepto conocido como Evolución Artificial de Parámetros─ y la función de verosimilitud corresponde a la caracterización estadística del error cuadrático medio del conjunto de observaciones de posición relativa en el plano del cielo. A fin de reducir la dimensionalidad del problema, se utiliza la representación de Thiele-Innes para la descripción de las órbitas. El método propuesto es probado sobre datos artificiales basados en el sistema estelar Sirius, con diferentes niveles de cobertura de órbita y error de observación característico. En la mayor parte de los casos estudiados, el método logra estimar los elementos orbitales con gran exactitud y precisión ─mejor en la medida que el error observacional característico disminuye y la cobertura de la órbita aumenta─; sin embargo, se lograron identificar casos límite en que, sin importar la calidad de los datos, los parámetros orbitales estimados presentan un error significativo (a pesar de generar órbitas concordantes con las observaciones). Finalmente, se muestra que el algoritmo desarrollado permite no sólo obtener un estimador ─un valor puntual dentro del espacio paramétrico─, sino también caracterizar la distribución a posteriori de los parámetros orbitales.
3

Análisis de datos y métodos bayesianos

Bernardo, Jose M. 25 September 2017 (has links)
En este trabajo se describen las nuevas perspectivas abiertas en la ciencia estadística por dos hechos históricos relativamente recientes, el espectacular desarrollo de los métodos gráficos en microordenadores, y la axiomatización de la estadística matemática proporcionada por el paradigma Bayesiano.
4

Aplicación de técnicas de filtrado Bayesiano para detección de exoplanetas y estimación de sus masas

Acuña Pagliero, Javier Ignacio January 2014 (has links)
Ingeniero Civil Eléctrico / La última década de investigación planetaria extrasolar ha permitido determinar de manera concluyente la existencia de planetas fuera de nuestro propio sistema planetario. Más aún, se posee evidencia de que estos son de variadas formas y que el sistema solar no es único en su especie. A la fecha, la técnica más exitosa para la detección de exoplanetas ha sido la de velocidades radiales, midiendo el efecto Doppler inducido por la fuerza gravitacional de un planeta orbitando alrededor de una estrella. Utilizando esta metodología los investigadores han sido capaces de inferir la presencia de exoplanetas orbitantes, confirmando además la inmensa mayoría de los que se conocen actualmente; generando resultados concluyentes a un ritmo acelerado. En el presente Trabajo de Título se ha propuesto la utilización de técnicas de inferencia Bayesiana para la detección de exoplanetas, a partir de datos de velocidad radial simulados. Se ha planteado además estudiar las limitantes intrínsecas asociadas al instrumento de observación, modelando su rango de error y obteniendo una medida del intervalo en donde es posible lograr la detección. Finalmente, a partir de la información obtenida y la utilizando técnicas de filtrado secuencial se consigue una estimación de la masa del planeta extrasolar. Dadas las simplificaciones consideradas durante la realización de este estudio se considera que los resultados obtenidos implican un avance inicial en la solución de un problema que posee una envergadura muy amplia, pero resultan significativos a la hora de abordarlo en mayor profundidad. Se logró de manera satisfactoria la simulación de los datos necesarios para el trabajo y la implementación de la metodología de detección de exoplanetas, junto con la obtención de la curva que define las limitantes del mismo proceso. Luego, haciendo uso de los Métodos Secuenciales de Monte Carlo fue posible estimar de manera certera la masa del planeta bajo los distintos parámetros orbitales, analizando también los casos límites de importancia.
5

Estudio del efecto de canibalización en una tienda de retail al incorporar una nueva tienda de la misma cadena utilizando información transaccional

Hazbun Rius, Andrés Javier January 2014 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / El presente trabajo de investigación estudia el efecto de canibalización, tanto en la incidencia de compra como en el monto de compra, al incorporar una nueva tienda de la misma cadena Falabella, en donde el foco principal está en analizar la variación en el comportamiento de compra de los clientes actuales de Falabella. Para cuantificar la canibalización se obtiene una caraterización de la decisión de compra de los clientes, en donde luego se realiza un comparativo entre las participaciones de mercado de las tiendas considerando los periodos Antes y Después de la nueva apertura. Para la obtención de los valores relacionados a la incidencia de compra y la variación del monto de compra, se realizan modelos Mixed Logit y Regresión Lineal respectivamente, en donde para el primer modelo se obtienen parámetros específicos para cada cliente. A su vez, en ambos modelos se utiliza un enfoque bayesiano, en donde se aborda la incertidumbre con una distribución de probabilidad sobre los parámetros de la función de utilidad. Debido a la dificultad de resolver integrales múltiples en el enfoque bayesiano, los modelos son ejecutados por los métodos de muestreo Markov Chain Monte Carlo (MCMC) y Gibbs respectivamente, en donde no se maximiza ninguna función. Por otro lado, los datos que se utilizan para ejecutar los modelos son transaccionales, es decir se usa información específica de cada cliente e información de la tienda que sea percibida por el cliente en su experiencia de compra. Los resultados obtenidos demuestran que el efecto de canibalización no supera el 4%, obteniendo 3.8% Plaza Norte, 0.8% Plaza Puente, 1.0% La Dehesa, 0% Manquehue, 1.4% Estación Central, siendo la distancia del cliente hacia la tienda y el formato de la misma las variables que tienen mayor influencia en esta decisión. Con respecto al monto de compra, el inaugurar una nueva tienda incrementa el monto promedio de los clientes, incrementándose la recaudación total de la cadena.
6

Modelos alternativos de respuesta graduada con aplicaciones en la calidad de servicios

Tarazona Vargas, Enver Gerald 20 July 2015 (has links)
Los modelos politómicos de la Teoría de Respuesta al Ítem (TRIP) tienen como finalidad explicar la interacción existente entre los sujetos evaluados y los atributos de un test en aquellas situaciones en las cuales los atributos que lo componen tienen varias categorías de respuesta. Dentro de los distintos tipos de modelos TRIP, el Modelo de Respuesta Graduada General (GRM) propuesto originalmente por Samejima (1969, 2010), es un conjunto de modelos diseñados para aplicarse en aquellas situaciones en las cuales las categorías de respuesta son ordinales. En este trabajo se presenta una formulación general para los GRM, su clasificación y principales propiedades desde el punto de vista bayesiano. De manera específica, se muestra el Modelo de Respuesta Graduada Logístico de dos parámetros (2PL-GRM) como un caso particular de los GRM simétricos y el Modelo de Respuesta Graduada Logístico de Exponente Positivo (LPE-GRM) como un modelo asimétrico derivado de incorporar un parámetro de penalización que controla la curvatura de las Funciones de Respuesta a las Etapas de los Ítems (FREI). La estimación de ambos modelos fue realizada usando la inferencia bayesiana con Métodos Montecarlo vía Cadenas de Markov (MCMC) e implementada en R y WinBUGS. Se realizó un estudio de simulación con el _n de estudiar la precisión en la recuperación de parámetros para el Modelo 2PL-GRM obteniéndose resultados apropiados para las medidas de ajuste consideradas. Los modelos 2PL-GRM y LPE-GRM estudiados fueron aplicados al estudio de un cuestionario acerca de la satisfacción de clientes y comparados con el tradicional análisis clásico de los test. La muestra del estudio está formada por 5354 clientes de una empresa de telecomunicaciones que se comunicaron con el Call Center de atención al cliente por algún motivo (consulta, reclamo, pedido, etc.). A través del análisis de dimensionalidad de la escala se encontró que el cuestionario evalúa dos dimensiones de la satisfacción con la atención al cliente: la Accesibilidad (4 ítems) y el Desempeño del asesor (7 ítems). Los resultados indican, considerando diferentes criterios, que en ambas dimensiones el modelo LPE-GRM es mejor. Adicionalmente, ambos modelos ofrecen mejor información que el tradicional análisis clásico. Se sugiere realizar diferentes estudios de simulación para evaluar distintas condiciones para la inferencia del modelo LPE-GRM puesto que para las mismas condiciones de estimación MCMC se observa que puede ser más demorado debido a que presenta mayor autocorrelación que el modelo 2PL-GRM. / Tesis
7

Métodos avanzados para la evaluación del desempeño de algoritmos de estimación y pronóstico basados en métodos secuenciales de Monte Carlo

Jaras Castaños, Ismael Sebastián January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Diagnosticar y pronosticar la evolución del estado de un sistema dinámico es un problema complejo que desde hace algún tiempo ha comenzado a tomar más fuerza y relevancia dentro de la ingeniería. En este sentido, la comunidad de Prognostics and Health Management, ha escogido a los algoritmos basados en métodos Secuenciales de Monte Carlo (SMC) como los algoritmos de facto del estado-del-arte, por su capacidad de aproximar el filtrado óptimo cuando se estudia un sistema no-lineal y con incertidumbre no necesariamente Gaussiana. Sin embargo, el costo a pagar por estos algoritmos es la complejidad computacional que requieren para generar sus resultados, lo que sugiere obtener versiones simplificadas de estos algoritmos -en desmedro de la calidad de los resultados- que puedan resolver el problema en tiempo real y con el objetivo de ser implementados en sistemas embebidos. De acuerdo con lo expresado, nace la necesidad de desarrollar un marco de trabajo que posibilite la comparación de algoritmos basados en el enfoque secuencial de Monte Carlo y que permita, por una parte, incluir las variaciones estadísticas inherentes de estos algoritmos, como también la implementación de medidas que incorporen la caracterización probabilística de la evolución del estado del sistema y, de esta forma, cuantificar la degradación en la calidad de los resultados producto de las simplificaciones. Es común observar comparaciones entre diferentes aproximaciones al método secuencial de Monte Carlo mediante medidas como el MSE, o momentos de las distribuciones, pero, ¿logran estas medidas incorporar la descripción probabilística que se asume como caracterización de la evolución del estado?. En el presente trabajo de Tesis se aborda esta interrogante y se utiliza como punto de partida para el desarrollo de un método de comparación que desafía la forma actual en la que se contrastan las diferentes aproximaciones a SMC. El método propuesto incluye el desarrollo de un marco comparativo -mediante el análisis PACC- donde se toma en cuenta el comportamiento estocástico propio de los algoritmos basados en SMC, por lo que es posible estimar el máximo error teórico en el que incurren distintas aproximaciones. Además, para abarcar la descripción estadística que generan los algoritmos sobre la evolución del estado del sistema, se introducen medidas de la información para cuantificar el desempeño de distintas aproximaciones y, de esta manera, estimar el máximo error teórico incorporando toda la información sobre la descripción estadística del proceso. En particular, para la implementación y análisis de la metodología propuesta en esta Tesis, se utiliza la estrategia comparativa para estudiar el desempeño de distintas aproximaciones de SMC al problema de estimar y pronosticar el estado de carga en baterías de Ion-Litio. Se muestra la factibilidad de obtener un algoritmo de referencia para ambos casos. Además, se concluye acerca del algoritmo más preciso computacionalmente, en cuanto a pérdida de información y representación de la incertidumbre. / Este trabajo a sido parcialmente financiado por Proyecto CONICYT FONDECYT 1140774
8

Modelo preventivo de morosidad temprana de clientes HFC mediante clasificación bayesiana

Bruna Paez, Eduardo Andrés January 2012 (has links)
Magíster en Gestión de Operaciones / Este proyecto, formó parte del plan de mitigación de clientes morosos implementado por una empresa de telecomunicaciones en el año 2009, dónde una de las líneas de acción estaba enfocada en disminuir la morosidad de los nuevos clientes en su primera factura. Se propuso un modelo que clasifique a los nuevos clientes en pagadores y no pagadores, permitiendo con ello, reorientar recursos y realizar acciones preventivas de morosidad de manera más focalizada y efectiva, las cuales estaban siendo hasta ese momento aplicadas al universo total de nuevos clientes. El éxito de este proyecto requería el compromiso del área de cobranzas, usuaria del modelo, por esto, la elección del modelo consideró aspectos tanto teóricos como prácticos. La simpleza y la fácil ejecución del modelo, idealmente programable, eran variables deseables y decidoras del éxito de éste. Se ejecutó basado en Clasificación Bayesiana por su forma simple de utilizar y presentar una confiabilidad aceptable [17]. Los métodos de inducción bayesiana han demostrado ser una clase de algoritmos tan competitivos como los métodos árboles de decisión y redes neuronales [29], que permiten implementar algoritmos en Wolfram Mathematica 6.0 cuyas sentencias de programación son muy similares al lenguaje C++, permitiendo su programación posterior. El modelo se confeccionó con 42.087 clientes, contratantes entre el 15 de julio y el 15 de octubre del 2009, de estos, 40.087 formaron la base de aprendizaje para calibrar y realizar los cálculos de probabilidades, y 2.000 como base de testing. Los clientes a clasificar en pagadores y no pagadores correspondieron a 9.328, quienes ingresaron a la empresa entre el 16 de Octubre y el 15 de Noviembre del 2009. En base a establecer una probabilidad a priori, se plantea en valores estimados de corte probabilístico basado en la experiencia o un método de clasificación [19], por una probabilidad de corte de 0,4 para clasificar a un cliente pagador por la necesidad que enfrenta la empresa de mejorar el % de clientes morosos en su primera boleta y a la vez reducir los costos actuales involucrados en la cobranza. El modelo clasificó a 2.910 clientes como no pagadores, 2.179 de ellos efectivamente no cancelaron su boleta al vencimiento (75%). Este resultado es compatible con el esperado en el análisis teórico, debido a la eficiencia de los estimadores estimados, como también, el tamaño de los set de datos empleados que en forma teórica respalda los resultados obtenidos con un 80% de confiabilidad. Como trabajo futuro, resulta interesante evaluar el aporte del modelo en la reducción real del porcentaje de clientes morosos al permitir reorientar recursos y focalizarse en ciertos clientes, como a su vez, actualizar la base de aprendizaje de tal forma ir considerando la actualidad al modelo.
9

Predicción de tipos de cambio reales utilizando modelos VAR Bayesianos

Higa Flores, Kenji Alonso January 2016 (has links)
El presente trabajo busca documentar el potencial de los modelos VAR Bayesianos (BVAR) para la predicción de índices de tipos de cambio reales efectivos. Para esto, se prueban distintas especificaciones de modelos predictivos utilizando la base angosta de índices de tipos de cambio reales efectivos de BIS que incluye datos para 27 economías. En primera instancia se prueban modelos univariados simples para realizar las predicciones y tener un punto de referencia para las estimaciones BVAR. El análisis de los resultados de las predicciones de los modelos BVAR tradicionales muestran que estos por sí solos no tienen un mejor desempeño que los modelos univariados. Estos resultados son robustos a la ventana de estimación, y a la especificación de los priors del BVAR.
10

Desarrollo de un modelo lexicográfico de ordenamiento parcial de atributos

Henríquez Arratia, María Pilar January 2014 (has links)
Ingeniera Civil Industrial / Magíster en Gestión de Operaciones / Los modelos de elección compensatorios han sido los modelos más utilizados para representar la toma de decisiones de compra de los consumidores. Sin embargo, diferentes escenarios puede motivar la toma de decisiones evitando compensaciones. Para representar este tipo de situaciones, los modelos lexicográficos se convierten en una alternativa que puede reportar beneficios por ahorro de tiempo y esfuerzo. Los modelos lexicográficos desarrollados asumen que los individuos tienen total conocimiento respecto a los atributos con los que aparecen descritas las alternativas y son capaces de valorizarlos y utilizarlos para decidir la alternativa preferida. En esta tesis se propone un modelo de elección lexicográfico que elimina el supuesto de capacidad de ordenamiento completa de atributos. El modelo propuesto admite incertidumbre en el orden de atributos y también errores de elección por parte de los consumidores a la hora de declarar la alternativa preferida. Se proponen dos enfoques de estimación: homogéneo y heterogéneo en la capacidad individual de ordenamiento de atributos. En cada uno de ellos, se utiliza el procedimiento Bayesiano para estimar las probabilidades lexicográficas individuales de elección. Mediante simulación, se confirma la robustez del modelo propuesto en términos de conseguir estimar la cantidad de atributos que los individuos están realmente considerando para tomar sus decisiones, recuperar los parámetros del modelo y predecir las elecciones de los consumidores. Este trabajo finaliza con una aplicación a una muestra real encuestada respecto al mercado de tablets. En esta parte, se compara el modelo heterogéneo con un modelo lineal. Si bien el segundo logra mejores tasas de acierto, el modelo heterogéneo es a su vez mejor que cualquier variante al modelo lineal del tipo q-compensatorio. Se concluye que con el modelo propuesto es posible obtener más información respecto a cómo los consumidores toman decisiones, transformándose en un modelo que logra explicar de mejor forma los procesos de elección sin perder con ello capacidad predictiva.

Page generated in 0.113 seconds