• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 20
  • 4
  • 3
  • Tagged with
  • 204
  • 146
  • 76
  • 54
  • 54
  • 54
  • 54
  • 54
  • 46
  • 43
  • 38
  • 37
  • 35
  • 34
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Aplicabilidad del modelo lineal de kimber para determinar la capacidad de rotondas en Lima

Nieto Medina, Carlos Michel 03 November 2016 (has links)
Los problemas de tráfico en Lima muchas veces se generan debido al bajo nivel de planificación urbana que se ha tenido a lo largo de su desarrollo como ciudad. Debido a ello, resulta importante conocer los fundamentos del diseño y funcionamiento de los elementos del tráfico vehicular con la finalidad de beneficiar a los ciudadanos que diariamente hacen uso de ellos. De esta manera, se considera importante el desarrollo de un trabajo de investigación orientado a rotondas, las cuales han sido poco estudiadas en países de América Latina. Por ello, el presente trabajo está orientado al estudio de la capacidad de sus entradas mediante el modelo empírico de regresión lineal propuesto por R.M. Kimber en 1980, aunque se debe reconocer que los problemas de circulación en general abarcan otras dimensiones, como la ambiental, económica y social además de la ingenieril. Dado que la investigación de rotondas en el Perú es prácticamente nula y el modelo lineal de Kimber fue concebido para rotondas de Inglaterra, se tiene como objetivo general verificar si es aplicable a la realidad de Lima. Como parte de la literatura, se revisan y detallan diversos modelos de capacidad en rotondas desarrollados en diversos países; tales como Francia, Suiza, Alemania, Inglaterra, Australia, Estados Unidos y China. Asimismo, se describen brevemente los parámetros de eficiencia de una intersección. La información que fue requerida por el modelo para ser evaluado comprende características geométricas de la rotonda, las cuales fueron obtenidas mediante un levantamiento topográfico. Por otro lado, con el acceso a las grabaciones de las cámaras de seguridad implementadas por las municipalidades de los distritos de Miraflores y Santiago de Surco se realizó el conteo de vehículos para obtener la demanda horaria y las colas de las zonas de estudio. Se evaluó la validez del modelo a través de una comparación de las longitudes colas formadas en las entradas con los valores obtenidos con la fórmula transformada de Whiting. Para ello, se utilizó la herramienta estadística randomization test y la teoría probabilística de formación de colas. Finalmente, luego de la evaluación estadística de los datos se concluye que las longitudes de colas medidas y calculadas no son equivalentes. / Tesis
62

Inferencia bayesiana en un modelo de regresión cuantílica semiparamétrico

Agurto Mejía, Hugo Miguel 20 July 2015 (has links)
Este trabajo propone un Modelo de Regresión Cuantílica Semiparamétrico. Nosotros empleamos la metodología sugerida por Crainiceanu et al. (2005) para un modelo semiparamétrico en el contexto de un modelo de regresión cuantílica. Un enfoque de inferencia Bayesiana es adoptado usando Algoritmos de Montecarlo vía Cadenas de Markov (MCMC). Se obtuvieron formas cerradas para las distribuciones condicionales completas y así el algoritmo muestrador de Gibbs pudo ser fácilmente implementado. Un Estudio de Simulación es llevado a cabo para ilustrar el enfoque Bayesiano para estimar los parámetros del modelo. El modelo desarrollado es ilustrado usando conjuntos de datos reales. / Tesis
63

Modelos Chain Ladder estocásticos y aplicaciones al cálculo de reservas en compañías de seguros

Mazuelos Vizcarra, Gisella Gabriela 20 July 2015 (has links)
This document is intented to deepen the study of univariate and multivariate Chain Ladder methods for estimating reserves in an insurance company. It presents from a theoretical and applicative perspective both the univariate deterministic and stochastic Chain Ladder methods. Although, the first is the most used method by insurance companies due to its simplicity and lack of probabilistic assumptions, the second, proposed by Mack (1993), allows the construction of confidence intervals for the estimated reserves, which is invaluable for researchers. We also develop the General Multivariate Chain Ladder model, which has the basic premise to analyze the possible relationship that may exist between different development triangles, thus providing another tool to improve inferences and predictions of reserves. These methods have been developed and applied to a database of 3 types of health insurance, thus showing the advantages and disadvantages of each of them in different scenarios and providing various tools for decision making in meeting the future obligations of insurance companies. / El presente documento tiene por objetivo profundizar en el estudio de los m´etodos univariados y multivariados del modelo Chain Ladder para la estimaci´on de las reservas de una compa˜n´ıa de seguros. Se presenta de manera te´orica y aplicativa tanto los m´etodos univariados Chain Ladder determin´ıstico como Chain Ladder estoc´astico. Si bien el primero de estos m´etodos es el m´as utilizado por las compa˜n´ıas de seguro dada su simplicidad de c´alculo y carencia de supuestos probabil´ısticos, el segundo, propuesto por Mack (1993), permite la construcci´on de intervalos de confianza para las reservas, lo cu´al es de invalorable ayuda para los investigadores. Asimismo, desarrollamos el modelo General Multivariado Chain Ladder, el cual tiene como premisa b´asica analizar la posible relaci´on que pueda existir entre diversos tri´angulos de desarrollo, dotando as´ı de otra herramienta para mejorar las inferencias y predicciones de las reservas. Estos m´etodos han sido desarrollados y aplicados sobre la base de datos de 3 tipos de seguros de salud, mostrando as´ı las ventajas y desventajas de cada uno de ellos en diferentes escenarios y proporcionando distintos instrumentos para la toma de decisiones relacionados en el cumplimiento de las obligaciones futuras de las compa˜nias de seguros. / Tesis
64

Método de clasificación para evaluar el riesgo crediticio : una comparación

Vigo Chacón, Geraldine Judith January 2010 (has links)
Se comparan dos métodos clásicos de clasificación: Análisis de Regresión Logística y Árboles de Clasificación, con el método de Redes Neuronales. La comparación se realizó en base al poder de clasificación y predicción de los modelos obtenidos en la evaluación del Riesgo Crediticio, siendo Redes Neuronales el mejor método por tener mayor poder de clasificación y predicción. Para el análisis se utilizó una Base de Datos de Riesgo Crediticio. Asimismo, se establecen las ventajas y desventajas en el empleo de cada método. -- Palabras Claves: Análisis de Regresión Logística, Árboles de Clasificación, Redes Neuronales. / --- Two classics methods of classification are compared: Analysis of Logistic Regression and Classification Trees with the method of Neural Networks. The comparison realized through his power of classification and prediction of the models obtains in the evaluation of credit risk, Neural Networks is the best method, because it has high power of classification and prediction. For the analysis used a database of credit risk. Likewise found the advantages and disadvantages in the use of each method. -- Key Words: Analysis Logistic Regression, Classification Trees, Neural Networks. / Tesis
65

Principios de metodología de superficie de respuesta para modelos logísticos

Tarsicio De Zan, Arturo 03 February 2006 (has links)
En esta tesis doctoral abordamos algunos principios para estudiar la Metodología de Superficie de Respuesta (que abreviaremos en adelante como MSR) para datos que siguen distribuciones binarias (Bernoulli y binomial), y que se ajustan mediante Modelos Lineales Generalizados (que abreviaremos como MLG). El punto de partida elegido ha sido el enfoque clásico de la MSR, es decir, en el contexto de modelos lineales y normales y, en particular, a partir del trabajo seminal de Box y Wilson (1951).Nuestra pregunta de investigación alrededor de la cual hemos elaborado este trabajo gira alrededor del siguiente planteamiento: "¿cómo podría proceder el experimentador cuando la naturaleza de su proceso no sigue los supuestos clásicos de normalidad y linealidad?". Enlazando esta cuestión con el estado actual del arte en materia de la MSR, una segunda pregunta fue: "¿Cómo podría ser un proceso secuencial de aprendizaje del funcionamiento de un sistema en los que intervengan respuestas de naturaleza binaria en el que se persiga un objetivo determinado?". Para poder investigar con mayor profundidad esta pregunta, y mediante un sustento metodológico lo suficientemente sólido, nos apoyamos en los MLG. Estos modelos -a partir de su primera presentación y formulación en el trabajo de Nelder y Wedderburn (1972)- son la herramienta que elegimos para encontrar una metodología de aplicación sistemática, que nos permita buscar modelos adecuados que puedan ajustar respuestas de naturaleza binaria. Consideramos como estrategia particular aquella en la que se encontraría el experimentador cuando dispone de un número fijo de observaciones a realizar de las variables de un sistema, que traducimos con el nombre de "estrategia de presupuesto fijo". Así, el objetivo será poder cuantificar de alguna forma la ganancia de información que alcanzamos a conocer del proceso luego de haber utilizado todo el presupuesto disponible. En todos los casos nuestro plan es el de utilizar familias de estrategias de diseños factoriales a dos niveles, secuencialmente encadenados. Nuestro estudio comienza definiendo una familia de estrategias de exploración de un proceso representado por una superficie de respuesta teórica binaria, en la que hemos identificado tres variables: un valor llamado w, acotado entre 0 y 1, el cual es utilizado para definir el primer centro de experimentación. Luego, se considera una segunda variable, que será el valor que tenga el rango de variación de los factores, L, y finalmente, cuando se ensayen nuevas alternativas de puntos de diseño, habrá un valor S, que llamaremos "salto", que representará la longitud que separa un centro de diseño del siguiente. De esta manera, diremos que una estrategia de diseño queda caracterizada por los valores L, S y w. Partiendo así de una superficie de respuesta que sea la que mejor se considera que se aproxima a un proceso real, el objetivo será el de encontrar a través de simulaciones los niveles de w, L y S que alcancen los mejores valores posibles bajo dos criterios de selección de diseños: (a) una basada en el determinante de la Matriz de Información de Fisher (que hemos llamado "criterio de la cantidad de información"), y (b) el otro, basado en el valor de la superficie teórica evaluado en las mejores condiciones que se obtengan del modelo ajustado (que hemos llamado "criterio de proximidad al máximo"). A tal efecto, hemos utilizado programas escritos en el lenguaje R (www.r-project.orq), un entorno de programación potente y flexible,La completa revisión bibliográfica de ambos temas (MSR y MLG), junto con el diseño de herramientas informáticas "ad-hoc", ofrecen un enfoque novedoso y origina! que puede servir como punto de partida para continuar buscando el enlace entre estas dos metodologías y su aplicación en problemas prácticos sobre la base de criterios objetivos que puedan soportar la toma de decisiones. / In this PhD thesis we approached some principles that relate to the study the Response Surface Methodology (abbreviated as RSM) for binary responses (Bernoulli and binomial distributions), modellable through the scope of Generalized Linear Models (abbreviated as GLM}. Our starting point is the classic approach of the RSM, in the context of linear normal models and, particularly, from the seminal work on the subject, by the article of Box and Wilson (1951). Our first research question from which we started ellaborating this work was around of the following statement: "How could experimenters deal with this problem when the nature of the process does not follow the classical assumptions of normality and linearity?". Connecting this question with the present state-of-the-art in RSM, the second question that we address is: "How could one design a sequential strategy to learn about the operation of a system with binary response, when certain objectives are persecuted?". In order to explore these questions deeper by means of a methodological support, we leaned towards the GLM approach. These models -presented and formulated primarily in the work of Nelder and Wedderburn (1972)- are the tool that we have chosen in order to find a systematic applied methodology, that aims for suitable models that can be fitted to binary response.We consider as a particular strategy, the one in which the experimenter has a fixed number of observations to be made, in what we labeled as "strategy of fixed budget". Thus, the objective will be to quantify the information gain once we have used all the budget available. In both cases, our plan is to carry out 2-level factorial and sequential designs. Our approach starts with a definition of a family of design strategies for exploration of a process that is being represented by a certain response surface. These strategies are characterized though three variables: w, bounded between 0 and 1, used to define the first experimentation center point. Once that is determined, a second variable is considered: L, or the range of variation of the factors. Finally, when several experimental conditions were considered, the variable S, identifies the jump length that connects one center point of experimentation with the following one, Having defined the scope this way, we can say that a design strategy may be characterized by means of a three-variable picture: L, S and w. Once the experimenter defined what kind of response surface is the best one to approach the real process, the goal will be to find the levels of L, S and w that maximizes the value of two alternative criteria: the first one is based on the determinant of the Fisher's Information Matrix, and it captures (he amount of information gathered by the design, and the second one is the value taken by the theoretical surface on the maximum of the fitted surface. In order to this scope, we have written some programs in R language (www.r-proiect.org), a powerful and flexible environment of programming and doing statistics.A complete bibliographical review of both topics (RSM and GLM), as well as the design of "ad-hoc" specific software, try to offer a new and an original point of view to study this problem, which maybe useful as a starting point for continuing the research in these areas and the link between these two methodologies. It is of special interest the exploration of new practical applications to real problems based on some objective criteria that can support the process of decision making.
66

Factores pronóstico de la condición clínica al alta hospitalaria de pacientes con contusión cerebral post trauma : Hospital María Auxiliadora, 2007

Salas Ojeda, María Isabel January 2010 (has links)
Objetivo: Identificar factores clínicos y tomográficos y construir un modelo pronóstico de morbimortalidad para pacientes con contusión cerebral. Métodos: Estudio correlacional, observacional, retrospectivo; con una muestra de 205 pacientes con contusión cerebral. Se evaluaron factores clínicos y tomográficos, para el pronóstico de su condición al alta, se ajustaron 3 modelos de regresión logística ordinal de odds proporcionales. Resultados: 72.2% fueron varones entre 17 y 84 años. 22%, 63.5% y 14.6% fueron traumatismo encéfalocraneano grave, moderado y leve respectivamente. Los mejores factores clínicos predictores de mortalidad fueron la edad avanzada, escala de Glasgow menor de 8, la ausencia de respuesta pupilar y entre los tomográficos: ausencia de cisternas basales, contusión mayor de 25cc., múltiples contusiones, desviación de línea media y la hemorragia subaracnoidea. Conclusiones: El modelo con factores tomográficos predice mejor la mortalidad (69.4%), mientras que el modelo con factores clínicos y tomográficos predice el 61.1% de los fallecidos y 95.8% de los recuperados. Los factores clínicos son predictores tempranos de la mortalidad. Palabras Claves: Contusión cerebral, traumatismo encéfalocraneano, pronóstico, regresión logística ordinal. / Objective: To identify clinical factors and tomographic and to build a prognostic model of mortality for patients with cerebral contusion. Methods: We conducted a retrospective descriptive correlational analysis, which selected a sample of 205 emergency patients. We evaluated the clinical and tomographic factors for the prognosis and fitted three logistic regression models of proportional odds. Results: The 72.2% are male, aged between 17 and 84 years, 22%, 63.5% and 14.6% were severe Traumatic brain injure moderate and mild respectively. The best predictors of mortality among clinical factors were advanced age, the Glasgow Coma Scale less than 8, the absence of pupillary response and between tomographic factors are: the absence of basal cisterns, contusion volume greater than 25cc., the presence of multiple bruises, midline deviation and subarachnoid hemorrhage. Conclusions: The model with factors tomographic is the better predictor of mortality (69.4%), while the combination of clinical and tomographic predicts 61.1% of all fatalities and 95.8% of the recovered. The clinical factors are predictive of early mortality. Key Words: Cerebral contusion, brain, trauma, injury, traumatic brain injure TBI, prognosis, ordinal logistic regression.
67

Método de clasificación para evaluar el riesgo crediticio : una comparación

Vigo Chacón, Geraldine Judith January 2010 (has links)
Se comparan dos métodos clásicos de clasificación: Análisis de Regresión Logística y Árboles de Clasificación, con el método de Redes Neuronales. La comparación se realizó en base al poder de clasificación y predicción de los modelos obtenidos en la evaluación del Riesgo Crediticio, siendo Redes Neuronales el mejor método por tener mayor poder de clasificación y predicción. Para el análisis se utilizó una Base de Datos de Riesgo Crediticio. Asimismo, se establecen las ventajas y desventajas en el empleo de cada método. Palabras Claves: Análisis de Regresión Logística, Árboles de Clasificación, Redes Neuronales. / Two classics methods of classification are compared: Analysis of Logistic Regression and Classification Trees with the method of Neural Networks. The comparison realized through his power of classification and prediction of the models obtains in the evaluation of credit risk, Neural Networks is the best method, because it has high power of classification and prediction. For the analysis used a database of credit risk. Likewise found the advantages and disadvantages in the use of each method. Key Words: Analysis Logistic Regression, Classification Trees, Neural Networks.
68

Estadística Aplicada 2 (MA145), ciclo 2013-1

Cuadros, Gonzalo, Tarazona, Enver, Cárdenas Solís, Celia, Ramírez Infante, Raúl 03 1900 (has links)
El curso de Estadística Aplicada 2 para estudiantes de Ingeniería Industrial e Ingeniería de Sistemas, comprende el estudio de diversos métodos de Estadística Inferencial que sirven de apoyo en el proceso de toma de decisiones a partir de información proveniente de las diferentes ramas de la ingeniería. Contenido: Muestreo -- Diseño de la encuesta por muestreo -- Pruebas de hipótesis -- Uso de la distribución Chi Cuadrado -- Análisis de variancia -- Análisis factorial -- Análisis de regresión lineal y no lineal simple -- Análisis de correlación -- Análisis de regresión múltiple -- Series de tiempo.
69

Estadística (MA86), ciclo 2013-1

Laines, Blanca 03 1900 (has links)
El curso de Estadística para estudiantes de Ingeniería Civil, Electrónica y Telecomunicaciones, comprende el estudio de los métodos más utilizados de la estadística descriptiva e inferencial como: estadística descriptiva, probabilidad, distribuciones especiales (binomial, Poisson, normal, exponencial, Weibull), inferencia estadística (intervalos y pruebas de hipótesis para uno y dos parámetros) y regresión lineal y no lineal.
70

Estadística Experimental (MA143), ciclo 2013-1

Aliaga, Elmer, Cárdenas, Celia, Chávez Ramos, Manuel Raymundo, Cuadros, Gonzalo, Laines, Blanca, Menacho, César, Piña, Gilber, Ognio, Carmen, Silvestre, Jim, Ventura, Susana January 2013 (has links)
Separata del curso Estadística Experimental (MA143), que corresponde al ciclo 2013-1. El curso está destinado para administradores y comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, los cuales servirán para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera.

Page generated in 0.0334 seconds