• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 121
  • 7
  • Tagged with
  • 128
  • 128
  • 67
  • 43
  • 43
  • 43
  • 43
  • 43
  • 36
  • 35
  • 32
  • 32
  • 27
  • 27
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

A beta inflated mean regression model with mixed effects for fractional response variables

Fernández Villegas, Renzo 20 June 2017 (has links)
In this article we propose a new mixed effects regression model for fractional bounded response variables. Our model allows us to incorporate covariates directly to the expected value, so we can quantify exactly the influence of these covariates in the mean of the variable of interest rather than to the conditional mean. Estimation is carried out from a Bayesian perspective and due to the complexity of the augmented posterior distribution we use a Hamiltonian Monte Carlo algorithm, the No-U-Turn sampler, implemented using Stan software. A simulation study for comparison, in terms of bias and RMSE, was performed showing that our model has a better performance than other traditional longitudinal models for bounded variables. Finally, we applied our Beta Inflated mixed-effects regression model to real data which consists of utilization of credit lines in the peruvian financial system. / En este artículo proponemos un nuevo modelo de regresión con efectos mixtos para variables acotadas fraccionarias. Este modelo nos permite incorporar covariables directamente al valor esperado, de manera que podemos cuantificar exactamente la influencia de estas covariables en la media de la variable de interés en vez de en la media condicional. La estimación se llevó a cabo desde una perspectiva bayesiana y debido a la complejidad de la distribución aumentada a posteriori usamos un algoritmo de Monte Carlo Hamiltoniano, el muestreador No-U-Turn, que se encuentra implementado en el software Stan. Se realizó un estudio de simulación que compara, en términos de sesgo y RMSE, el modelo propuesto con otros modelos tradicionales longitudinales para variables acotadas, resultando que el primero tiene un mejor desempeño. Finalmente, aplicamos nuestro modelo de regresión Beta Inflacionada con efectos mixtos a datos reales los cuales consistían en información de la utilización de las líneas de crédito en el sistema financiero peruano. / Tesis
12

Modelos de regresión binaria Skew probit para el calculo de probabilidad de default en el ámbito del sistema financiero

Pantoja Marin, Luis 05 February 2013 (has links)
La presente investigación se fundamenta en el uso o aplicación de Modelos Skew Probit con enlace asimétrico desde un enfoque Bayesiano. Los modelos a usar incorporan la posibilidad de usar enlaces asimétricos para estimar la probabilidad de y i =1 en muestras no balanceadas (alta proporción de ceros y por ende pequeña proporción de unos). La formulación general de esto modelos es debida a Bazán, Bolfarine y Branco (2010). Aunque en estos modelos inicialmente su computación es complicada se usaron Cadenas de Markov por Monte Carlo (MCMC) o muestreo Gibbs (para la aplicación de estos procedimientos ver Carlin y Polson, 1992) que hacen simple la formulación del modelo y por tanto simple su implementación usando el software WinBugs (los códigos de los diferentes modelos utilizados fueron obtenidos en el programa BRMUW propuesto por Bazán y Bayes, 2010). De acuerdo al análisis y estudio de aplicación realizado sobre una muestra de clientes de préstamos pertenecientes a una entidad micro financiera, aquellos modelos Skew Probit BBB y Estándar presentan los mejores indicadores de eficiencia. El análisis sobre datos reales señala que el modelo tradicional Probit presenta un 56.6% (371/664) de mala clasificación versus los modelos Estándar y BBB que en promedio muestran dicho indicador alrededor de 43% (290/664). El análisis mediante curvas COR (Receiver Operating Characteristic) ratifica lo mencionado; el área debajo de las curvas superan el 0.74 de 1 para el modelo BBB, mientras que dicho dato es de 0.70 para el caso del modelo simétrico tradicional probit. Por tanto la sensibilidad y especificidad (eficiencia) es mayor para aquellos modelos Skew Probit (mejor modelo BBB). Dentro de los modelos con Enlaces Asimétricos los modelos (SP) BBB y Estándar son los que presentan mejores indicadores de ajuste e información as__ como mejoran la sensibilidad y especificidad de un determinado modelo. Finalmente, se pretende la sistematización de la propuesta a nivel de la entidad micro financiera y su aplicación en la estimación de la probabilidad de default de créditos pero aplicado en todos los tipos de créditos. / Tesis
13

Modelo para estimar impactos ambientales en el movimiento de tierras en obras de edificaciones

Gutierrez Silva, Dario Santiago, Pomar Castromonte, Rafu Estanislao 26 April 2016 (has links)
Esta tesis presenta los efectos producidos en la calidad del aire por el desarrollo de la actividad de movimiento de tierras en obras de edificaciones. Para ello, se postula dos modelos matemáticos que permiten calcular los factores de emisión producidos a través de dos parámetros, PM10 y PM2.s. Se escogió tres casos reales, en donde se obtuvo los parámetros ambientales que permitan postular el modelo, así como también validarlo con datos reales en obras con ejecución de movimiento de tierras. La importancia de este tema de investigación radica en que se hace necesario estudiar y desarrollar este modelo matemático que permita estimar las emisiones de material particulado, lo cual contribuye un aporte para un mejor estudio o evaluación de impacto ambiental (EIA), porque por cada nuevo proyecto de construcción que se genere, es necesario analizar y evaluar su sostenibilidad ambiental, tal es el caso de la calidad del aire. Además, se elaboraron índices de calidad del aire para la estimación de material particulado PM10 y PM2.s, que nos puedan mostrar el daño que se produce o existe en el ambiente. Mediante análisis estadísticos, como el análisis de regresión, se determinó las causalidades que se dan entre las emisiones de material particulado durante la actividad de movimiento de tierras y los parámetros ambientales: Porcentaje de finos del suelo, humedad del suelo, humedad relativa, precipitación y velocidad del viento; siendo el primer parámetro el que incide en mayor cantidad y en directa proporción y el contenido de humedad el que menos influye. El resultado obtenido es que la contaminación del aire existe en las obras de edificaciones de esta ciudad. Para los proyectos seleccionados, la cantidad de material particulado emitido obtiene la categoría de moderado según los estándares nacionales de calidad de aire planteadas por el SENAMHI. Palabras clave: Material particulado, factor de em1s1on, parámetros ambientales, Estudio de Impacto Ambiental, análisis de regresión, función de transformación, porcentaje de finos, humedad del suelo, precipitación, velocidad del viento, humedad relativa. / Tesis
14

Estadística inferencial. MTA6. Ejercicio 1

29 April 2013 (has links)
Estadística inferencial. 6. Ejercicio 1
15

Estadística inferencial. MTA6. Ejercicio 2

29 April 2013 (has links)
Estadística inferencial. 6. Ejercicio 2
16

Estadística inferencial. MTA6. Ejercicio 3

29 April 2013 (has links)
Estadística inferencial. 6. Ejercicio 3
17

Diseño de modelos econométricos para la estimación de estados financieros de microempresas que se desempeñan en sevicios profesionales y manufactura

Miranda Sotelo, Constanza Montserrat January 2014 (has links)
Ingeniera Civil Industrial / Para BancoEstado Microempresa (BEME) y para la banca en general, las exigencias del mercado y la industria de microempresas en Chile han ido creciendo constantemente llegando a quintuplicarse en los últimos diez años. Es por eso que es muy importante ir mejorando los procesos de créditos y de atención de clientes para funcionar y responder rápidamente a sus demandas y así no perder frente a la competencia. La Tecnología de Evaluación de Riesgo (TER) es una herramienta que evalúa a los clientes de BEME que necesitan créditos. Actualmente, para la mayoría de los clientes, consiste en visitas en terreno y entrevistas por parte de los ejecutivos con el fin de corroborar la información otorgada por éstos lo cual hace de la TER un procedimiento lento. Con el fin de disminuir este tiempo, se desarrollaron modelos de estimaciones lineales de las variables del estado financiero. De este modo se espera disminuir considerablemente el tiempo que le toma a los ejecutivos realizar un crédito a microempresarios del área Servicios Profesionales y Manufactura. Se generaron seis modelos de regresión lineal para ventas, costo fijo y margen. Esta memoria presenta las variables que más influyeron sobre el estado de resultado operacional como la formalidad del cliente, la cantidad de empleados de la microempresa, el rubro, si tiene línea de crédito y el tipo de vivienda en la que se encuentra. Estos modelos arrojan una variabilidad porcentual (MAPE) de 2% en promedio para los clientes con historia y de un 10% para los clientes sin historia en el banco. La diferencia entre estos valores está dada en gran parte por la variable que da cuenta de cómo fue el comportamiento de los clientes en el periodo anterior, la cual no está presente en los clientes sin historia. Finalmente, se proponen alternativas para realizar estos pronósticos utilizando segmentación por rubro de estos, utilizando modelos como probit o logit para modelos que estiman entre el rango (0,1), como el margen, el cual con regresión lineal podría llegar a dar un valores mayores a 1. Otra opción es crear modelos no lineales, como redes neuronales, los cuales pueden captar patrones de comportamiento que no lo hacen los modelos lineales. Se recomienda al banco integrar variables exógenas al modelo, como el PIB o la tasa de desempleo sectorial, de modo que éstos lleguen a ser más robustos.
18

Construcción y validación de una metodología de seguimiento para modelos de regresión logística

Covarrubias Mondaca, Gabriela Esmeralda January 2012 (has links)
Este trabajo de título tiene por objetivo general construir, implementar y validar una metodología de seguimiento no supervisada, para detectar cambios significativos en la distribución de las variables, en modelos de regresión logística. El problema de seguimiento corresponde a detectar cambios en un modelo de minería de datos cuando éste es construido usando bases de datos no-estacionarias, es decir, conjuntos de información a los cuales constantemente se les están agregando nuevas observaciones. La consecuencia de estos cambios es que progresivamente el modelo perderá validez, por lo que deberá ser recalibrado en algún momento. El enfoque desarrollado para las metodologías propuestas es que cada parámetro de un modelo de regresión logística asociado a la variable x_i del modelo posee un intervalo de confianza donde se presume que se encuentra su valor real. El supuesto es que si la población cambia de tal manera que el nuevo parámetro estimado está fuera de este intervalo, entonces el modelo no es válido para esa nueva muestra. Se considera que el cuociente entre las medias es una buena medida del cambio entre dos muestras, solamente que no considera el efecto de la forma de la distribución. Es por ello que se corrige la media dividiéndola por la varianza muestral, obteniendo un coeficiente llamado ICV. Se plantean dos modelos a contrastar con el intervalo de cambio máximo: ICV-1 que corresponde al módulo de la diferencia del ICV de cada muestra e ICV-2 que corresponde al cuociente de dichos valores. Se construyó un modelo de regresión logística utilizando una base datos de comportamiento crediticio, cuyo error de predicción total fue de 23,3%. Con los parámetros de este modelo se construyeron los intervalos de cambio máximo para cada variable y se las perturbó de tres maneras distintas para proceder a la validación. Al aplicar los modelos propuestos, junto con otras metodologías de seguimiento, se concluye que ICV-1 presenta problemas debido a la forma en que se ha definido el intervalo de cambio máximo e ICV-2 tiene un buen rendimiento, comparable con el de Stability Index y la Distancia de Hellinger y considerablemente mejor que el test K-S y el test Chi-cuadrado.
19

Distribución asintótica de los estimadores MCO en una regresión lineal con variables explicativas que siguen procesos estocásticos strong-mixing y tendencia

Huaranga Narvajo, Juvert Alexi January 2018 (has links)
Trata de obtener la distribución asintótica de los estimadores de mínimos cuadrados ordinarios (MCO) en regresiones de series temporales con variables explicativas que siguen procesos estocásticos strong-mixing y tendencia. De modo que puedan ser usados para hallar relaciones causales válidas entre las variables y poder así dar respuestas válidas a los problemas de interés que tengan los investigadores en los diversos campos de investigación que hacen uso intensivo de series temporales. / Tesis
20

Desarrollo y evaluación de metodologías para la aplicación de regresiones logísticas en modelos de comportamiento bajo supuesto de independencia

Biron Lattes, Miguel Ignacio January 2012 (has links)
Ingeniero Civil Industrial / El presente documento tiene por objetivo desarrollar y evaluar una metodología de construcción de regresiones logísticas para scorings de comportamiento, que se haga cargo del supuesto de independencia de las observaciones inherente al método de estimación de máxima verosimilitud. Las regresiones logísticas, debido a su facilidad de interpretación y a sus buen desempeño, son ampliamente utilizadas para la estimación de modelos de probabilidad de incumplimiento en la industria financiera, los que a su vez sirven múltiples objetivos: desde la originación de créditos, pasando por la provisión de deuda, hasta la pre aprobación de créditos y cupos de líneas y tarjetas. Es por esta amplia utilización que se considera necesario estudiar si el no cumplimiento de supuestos teóricos de construcción puede afectar la calidad de los scorings creados. Se generaron cuatro mecanismos de selección de datos que aseguran la independencia de observaciones para ser comparados contra el método que utiliza todas las observaciones de los clientes (algoritmo base), los que posteriormente fueron implementados en una base de datos de una cartera de consumo de una institución financiera, en el marco de la metodología KDD de minería de datos. Los resultados muestran que los modelos implementados tienen un buen poder de discriminación, llegando a superar el 74% de KS en la base de validación. Sin embargo, ninguno de los métodos propuestos logra superar el desempeño del algoritmo base, lo que posiblemente se debe a que los métodos de selección de datos reducen la disponibilidad de observaciones para el entrenamiento, lo que a su vez disminuye la posibilidad de poder construir modelos más complejos (mayor cantidad de variables) que finalmente entreguen un mejor desempeño.

Page generated in 0.0912 seconds