• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 1
  • Tagged with
  • 16
  • 16
  • 12
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 6
  • 5
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimación por mínimos cuadrados ponderados en modelos lineales generalizados

Gonzales King-Keé, Karin Cecilia January 2001 (has links)
En este trabajo se aplica el método de Mínimos Cuadrados Ponderados como un método alternativo de estimación de parámetros en los Modelos Lineales Generalizados, y en particular para el caso de variables respuesta con distribución Multinomial y de Poisson, usando el enfoque desarrollado por Grizzme, Starmer y Koch (GSK). Se estudia la formación de funciones respuesta de variables dependientes con distribución Multinomial y Poisson. / -- In this work the metod of weighted least squares is applied as an alternative for estimating parameters in the Generalized Linear Models, and particularly, for the case of response variable with multimomial and Poisson distributions using the theory developed by Grizzme, Starmer y Koch. Beginning with the General linear model it is introduced the Generalized linear models and it is stablished the funtion formations for the response variables with multinomial and poisson distributions.
2

Estimación por mínimos cuadrados ponderados en modelos lineales generalizados

Gonzales King-Keé, Karin Cecilia January 2001 (has links)
En este trabajo se aplica el método de Mínimos Cuadrados Ponderados como un método alternativo de estimación de parámetros en los Modelos Lineales Generalizados, y en particular para el caso de variables respuesta con distribución Multinomial y de Poisson, usando el enfoque desarrollado por Grizzme, Starmer y Koch (GSK). Se estudia la formación de funciones respuesta de variables dependientes con distribución Multinomial y Poisson. / In this work the metod of weighted least squares is applied as an alternative for estimating parameters in the Generalized Linear Models, and particularly, for the case of response variable with multimomial and Poisson distributions using the theory developed by Grizzme, Starmer y Koch. Beginning with the General linear model it is introduced the Generalized linear models and it is stablished the funtion formations for the response variables with multinomial and poisson distributions.
3

Análisis sobre la resolubilidad de modelos lineales de producción conjunta

Peris, Josep E. 26 February 1987 (has links)
No description available.
4

Un enfoque de credibilidad bajo espacios de Hilbert y su estimación mediante modelos lineales mixtos

Ruíz Arias, Raúl Alberto 08 April 2013 (has links)
La teoría de la credibilidad provee un conjunto de métodos que permiten a una compañía de seguros ajustar las primas futuras, sobre la base de la experiencia pasada individual e información de toda la cartera. En este trabajo presentaremos los principales modelos de credibilidad utilizados en la práctica, como lo son los modelos de Bühlmann (1967), Bühlmann-Straub (1970), Jewell (1975) y Hachemeister (1975), todos ellos analizados en sus propiedades desde un punto de vista geométrico a través de la teoría de espacios de Hilbert y en su estimación mediante el uso de los modelos lineales mixtos. Mediante un estudio de simulación se mostrará la ventaja de utilizar este último enfoque de estimación. / Tesis
5

Principios de metodología de superficie de respuesta para modelos logísticos

Tarsicio De Zan, Arturo 03 February 2006 (has links)
En esta tesis doctoral abordamos algunos principios para estudiar la Metodología de Superficie de Respuesta (que abreviaremos en adelante como MSR) para datos que siguen distribuciones binarias (Bernoulli y binomial), y que se ajustan mediante Modelos Lineales Generalizados (que abreviaremos como MLG). El punto de partida elegido ha sido el enfoque clásico de la MSR, es decir, en el contexto de modelos lineales y normales y, en particular, a partir del trabajo seminal de Box y Wilson (1951).Nuestra pregunta de investigación alrededor de la cual hemos elaborado este trabajo gira alrededor del siguiente planteamiento: "¿cómo podría proceder el experimentador cuando la naturaleza de su proceso no sigue los supuestos clásicos de normalidad y linealidad?". Enlazando esta cuestión con el estado actual del arte en materia de la MSR, una segunda pregunta fue: "¿Cómo podría ser un proceso secuencial de aprendizaje del funcionamiento de un sistema en los que intervengan respuestas de naturaleza binaria en el que se persiga un objetivo determinado?". Para poder investigar con mayor profundidad esta pregunta, y mediante un sustento metodológico lo suficientemente sólido, nos apoyamos en los MLG. Estos modelos -a partir de su primera presentación y formulación en el trabajo de Nelder y Wedderburn (1972)- son la herramienta que elegimos para encontrar una metodología de aplicación sistemática, que nos permita buscar modelos adecuados que puedan ajustar respuestas de naturaleza binaria. Consideramos como estrategia particular aquella en la que se encontraría el experimentador cuando dispone de un número fijo de observaciones a realizar de las variables de un sistema, que traducimos con el nombre de "estrategia de presupuesto fijo". Así, el objetivo será poder cuantificar de alguna forma la ganancia de información que alcanzamos a conocer del proceso luego de haber utilizado todo el presupuesto disponible. En todos los casos nuestro plan es el de utilizar familias de estrategias de diseños factoriales a dos niveles, secuencialmente encadenados. Nuestro estudio comienza definiendo una familia de estrategias de exploración de un proceso representado por una superficie de respuesta teórica binaria, en la que hemos identificado tres variables: un valor llamado w, acotado entre 0 y 1, el cual es utilizado para definir el primer centro de experimentación. Luego, se considera una segunda variable, que será el valor que tenga el rango de variación de los factores, L, y finalmente, cuando se ensayen nuevas alternativas de puntos de diseño, habrá un valor S, que llamaremos "salto", que representará la longitud que separa un centro de diseño del siguiente. De esta manera, diremos que una estrategia de diseño queda caracterizada por los valores L, S y w. Partiendo así de una superficie de respuesta que sea la que mejor se considera que se aproxima a un proceso real, el objetivo será el de encontrar a través de simulaciones los niveles de w, L y S que alcancen los mejores valores posibles bajo dos criterios de selección de diseños: (a) una basada en el determinante de la Matriz de Información de Fisher (que hemos llamado "criterio de la cantidad de información"), y (b) el otro, basado en el valor de la superficie teórica evaluado en las mejores condiciones que se obtengan del modelo ajustado (que hemos llamado "criterio de proximidad al máximo"). A tal efecto, hemos utilizado programas escritos en el lenguaje R (www.r-project.orq), un entorno de programación potente y flexible,La completa revisión bibliográfica de ambos temas (MSR y MLG), junto con el diseño de herramientas informáticas "ad-hoc", ofrecen un enfoque novedoso y origina! que puede servir como punto de partida para continuar buscando el enlace entre estas dos metodologías y su aplicación en problemas prácticos sobre la base de criterios objetivos que puedan soportar la toma de decisiones. / In this PhD thesis we approached some principles that relate to the study the Response Surface Methodology (abbreviated as RSM) for binary responses (Bernoulli and binomial distributions), modellable through the scope of Generalized Linear Models (abbreviated as GLM}. Our starting point is the classic approach of the RSM, in the context of linear normal models and, particularly, from the seminal work on the subject, by the article of Box and Wilson (1951). Our first research question from which we started ellaborating this work was around of the following statement: "How could experimenters deal with this problem when the nature of the process does not follow the classical assumptions of normality and linearity?". Connecting this question with the present state-of-the-art in RSM, the second question that we address is: "How could one design a sequential strategy to learn about the operation of a system with binary response, when certain objectives are persecuted?". In order to explore these questions deeper by means of a methodological support, we leaned towards the GLM approach. These models -presented and formulated primarily in the work of Nelder and Wedderburn (1972)- are the tool that we have chosen in order to find a systematic applied methodology, that aims for suitable models that can be fitted to binary response.We consider as a particular strategy, the one in which the experimenter has a fixed number of observations to be made, in what we labeled as "strategy of fixed budget". Thus, the objective will be to quantify the information gain once we have used all the budget available. In both cases, our plan is to carry out 2-level factorial and sequential designs. Our approach starts with a definition of a family of design strategies for exploration of a process that is being represented by a certain response surface. These strategies are characterized though three variables: w, bounded between 0 and 1, used to define the first experimentation center point. Once that is determined, a second variable is considered: L, or the range of variation of the factors. Finally, when several experimental conditions were considered, the variable S, identifies the jump length that connects one center point of experimentation with the following one, Having defined the scope this way, we can say that a design strategy may be characterized by means of a three-variable picture: L, S and w. Once the experimenter defined what kind of response surface is the best one to approach the real process, the goal will be to find the levels of L, S and w that maximizes the value of two alternative criteria: the first one is based on the determinant of the Fisher's Information Matrix, and it captures (he amount of information gathered by the design, and the second one is the value taken by the theoretical surface on the maximum of the fitted surface. In order to this scope, we have written some programs in R language (www.r-proiect.org), a powerful and flexible environment of programming and doing statistics.A complete bibliographical review of both topics (RSM and GLM), as well as the design of "ad-hoc" specific software, try to offer a new and an original point of view to study this problem, which maybe useful as a starting point for continuing the research in these areas and the link between these two methodologies. It is of special interest the exploration of new practical applications to real problems based on some objective criteria that can support the process of decision making.
6

Diseño Optimo de Experimentos para Estimar el Campo de Esfuerzos en el Macizo Rocoso en Torno al Frente de Avance de una Cavidad Minera

Saavedra Godoy, Luis Alberto January 2007 (has links)
El fenómeno de explosión de rocas y el colapso de galerías es de gran interés en el proceso de extracción del mineral. Debido a su importancia se han realizado estudios, tanto teóricos como experimentales, con el objetivo de predecir el comportamiento del macizo rocoso. En este marco se encuentra el proyecto “Explosión de Rocas en El Teniente”, que ha dado como fruto un modelo de Superposición de Campos Básicos con el cual es posible estimar el estado tensional del macizo rocoso, y a través de esta estimación lograr inferir que configuración tensional es propensa a colapsos o explosión de roca. El objetivo de este trabajo es realizar un estudio de los modelos de Superposición de Campos Básicos, a fin de lograr una comprensión que permita obtener un diseño de la red de estaciones de medición de manera “óptima”. Para ello nos hemos impuesto el objetivo de justificar la elección de un modelo de Superposición de Campos Básicos, además nos hemos propuesto el presentar la Teoría de Diseño Óptimo de Experimentos como una herramienta que permite abordar el problema del diseño de la red de estaciones de medición, por este motivo fue necesario un objetivo más, el de implementar un Código de Diseño Óptimo, a fin de mostrar con pruebas numéricas la utilidad de esta teoría en la práctica. Las pruebas numéricas dan cuenta lo positivo de los resultados, en particular hemos resuelto el problema de añadir estaciones a una red de estaciones dada, y somos capases de “medir” la importancia de una estación para un diseño determinado, además hemos “comparado” el estimador encontrado con un estimador alternativo, propuesto en el proyecto, mostrando lo ventajoso de nuestro estimador. El criterio con el cual hemos medido y comparado es el criterio clásicamente utilizado en el diseño óptimo de experimentos, denominado D-Criterio. Este trabajo es el punto de partida para el estudio de modelos de Superposición de Campos Básicos que incorporen ciertos fenómenos, como plasticidad o no homogeneidad del macizo, así como también modelos tridimensionales, ya que dentro de los desarrollos no fue necesaria la suposición de un modelo bidimensional.
7

Modelo de regresión lineal con censura basado en una mixtura finita de una distribución normal asimétrica

Yábar Geldres, Ingrid Alicia 29 May 2023 (has links)
El presente trabajo de tesis propone estudiar el modelo de regresión lineal con censura basado en una mixtura finita de una distribución normal asimétrica (NA), con adaptación a diferente número de componentes. Este enfoque permite modelar datos continuos con gran flexibilidad, acomodando simultáneamente multimodalidad, colas pesadas y asimetría, dependiendo de la estructura de los componentes de la mixtura. Se implementa un algoritmo de tipo EM analíticamente manejable y eficiente para calcular iterativamente las estimaciones de máxima verosimilitud de los parámetros, mediante aproximaciones estocásticas (SAEM). El algoritmo propuesto tiene algunas expresiones cerradas en el paso-E, por lo que la obtención de los errores estándar se da por el método Bootstrap. Asimismo, se realiza un estudio de simulación con el fin de evaluar si el método propuesto permite recuperar los parámetros del modelo mediante el uso del algoritmo SAEM. Por otro lado, se realiza la aplicación del modelo propuesto para el estudio de la participación en la fuerza laboral de las mujeres casadas usando la base de datos de la Universidad de Michigan (Mroz, 1987). Como segunda aplicación se utiliza un conjunto de datos de clientes que entraron en campaña en una entidad financiera local con el fin de estimar sus ingresos.
8

Método para la fusión de categorías usando técnicas de agrupamiento

Farro Diaz, Victor Daniel 28 April 2022 (has links)
En la actualidad, muchas organizaciones disponen o tienen acceso a una gran cantidad y variedad de datos que les permiten tomar decisiones acordes en temas económicos, sociales, de educación, de salud, entre otros. Con frecuencia, los estudios que se realizan se enfocan en el objetivo de explicar una variable de interés utilizando un conjunto de variables explicativas; y si la relación de dependencia es lineal, se le conoce como modelo de regresión lineal. Los modelos de regresión lineal presentan su principal reto en la estimación de los parámetros de la regresión, que se consiguen a partir de la información obtenida mediante el análisis de las observaciones de una muestra previamente recogida. La complejidad de los modelos de regresión lineal aumenta con la existencia de covariables que son medidas en una escala nominal u ordinal, y que en muchas ocasiones presentan una gran cantidad de categorías, como por ejemplo: estado civil, grupo sanguíneo, entre otros. Lo habitual para modelar el efecto total de una covariable categórica es definir una categoría (o nivel) como línea base y utilizar variables ficticias para las otras categorías (o niveles). La presente tesis tiene como principal objetivo el desarrollo del método de fusión de efectos de covariables categóricas usando técnicas de agrupamiento PAM, propuesto por Malsiner-Walli, Pauger y Wagner (2018), y aplicarlo en un conjunto de datos reales relacionados a los ingresos monetarios de la población de Lima Metropolitana y Callao del primer trimestre del 2020.
9

Modelo de regresión semiparamétrico robusto

Esquivel Segura, Henry John 11 May 2021 (has links)
El presente trabajo de tesis presenta un modelo de regresión semiparamétrico con errores t-Student, que permite estudiar el comportamiento de una variable dependiente dado un conjunto de variables explicativas cuando los supuestos de linealidad y normalidad no se cumplen. La estimación de los parámetros se realiza bajo el enfoque bayesiano a través del algoritmo de Gibbs. En el estudio de simulación se observa que el modelo propuesto es más robusto ante la presencia de valores atípicos que el usual modelo regresión semiparamétrico normal. Asimismo se presenta una aplicación con datos reales para ilustrar esta característica.
10

Modelo de regresión lineal con censura basado en una distribución senh-normal/independiente: una perspectiva frecuentista

Alonzo Huaman, Max Walter 31 July 2022 (has links)
En esta tesis se estudia el modelo de regresión lineal para datos censurados considerando una distribución senh-normal/independiente para los errores desde un enfoque frecuentista. Este trabajo considera la revisión de la teoría existente, la construcción del nuevo modelo, estimación de parámetros, estudios de simulación para recuperar los parámetros del modelo y la aplicación a un conjunto de datos reales. / In this thesis, the linear regression model for censored data is studied considering a sinhnormal / independent distribution for errors from a frequentist approach. This paper considers the revision of the existing theory, the construction of the new model, estimation of parameters, simulation studies to retrieve the parameters of the model and the application to a set of real data.

Page generated in 0.0855 seconds