• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 429
  • 89
  • 36
  • 9
  • 3
  • 1
  • 1
  • Tagged with
  • 568
  • 126
  • 90
  • 90
  • 90
  • 90
  • 90
  • 90
  • 89
  • 76
  • 76
  • 71
  • 71
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estadística Aplicada a los Negocios (MA130), ciclo 2014-2

Jaramillo Vega, Segundo 08 1900 (has links)
No description available.
2

Taller: herramientas estadísticas para docentes

Universidad Peruana de Ciencias Aplicadas (UPC), Gutiérrez, Silvia, Luna, Wálter 29 April 2013 (has links)
Al término del taller, el participante aplica las herramientas estadísticas con responsabilidad y sentido ético para la toma de decisiones.
3

Modelo de Rasch dicotómico con aplicación a la educación

Chincaro Del Coral, Omar Antonio 17 August 2012 (has links)
En investigaciones de origen cuantitativo generalmente se emplean instrumentos de medición que generan base de datos dicotómicas, en la cual cada persona responde las preguntas o ítems del instrumento. Subyacente a estas respuestas existen variables no observables o variables latentes que caracterizan a las personas evaluadas y a los ítems del instrumento de medición utilizado. En este trabajo se modeló la probabilidad de responder correctamente al ítem en función a sus parámetros mediante el uso de los modelos logísticos o modelos de Rasch. Considerando las respuestas a estas variables latentes de las personas, de lo ítems, y sus supuestos se estimó los parámetros a partir de la función de verosimilitud del modelo. En esta tesis se mostró diferentes métodos de estimación como el de Máxima Verosimilitud Marginal (MVM) que depende de las puntuaciones que se obtenga en cada ítem, el de Máxima Verosimilitud Condicional (MVCOND) que considerara patrones de respuesta, el método de Máxima Verosimilitud Conjunta (MVC) y el método Bayesiano utilizando Cadenas de Markov y métodos de Monte Carlo (MCMC) como el algoritmo Gibbs Sampling. El Método Bayesiano fué analizado bajo dos esquemas: adaptative rejection sampling (ARS) y el data argumentation gibbs sampling (DAGS). Con estos métodos se estimaron los parámetros de los ítems y las personas evaluadas, los cuales se compararon con estudios de simulación determinándose que el mejor método de estimación es el Bayesiano. El método bayesiano presenta las estimativas más precisas considerando diferentes escenarios de tamaño de muestra y número de ítems frente a los otros métodos de estimación. Adicionalmente no tiene restricción en la estimación frente a valores extremos y finalmente es un método conjunto que estima al mismo tiempo habilidades y dificultades a diferencia de otros métodos que sólo estiman dificultades u otros que estiman ambos pero baja precisión. Finalmente se realizó una aplicación del modelo en el ámbito educacional. / Tesis
4

Estimación bayesiana de efectos de red: el modelo Logit mixto

Chahuara Vargas, Paulo Roberto 02 October 2017 (has links)
Los efectos o externalidades de red son factores que pueden condicionar las decisiones de contratación de los consumidores en favor de empresas ya establecidas y en contra de los nuevos competidores, pudiendo limitar la competencia efectiva y potencial de los mercados, en especial, en aquellas industrias donde el número de empresas es bajo y la entrada de nuevos competidores es poco frecuente. Por ello, es importante verificar su existencia y la magnitud de sus efectos sobre las decisiones de compra de los consumidores con el objetivo de justificar o establecer medidas que impulsen una competencia más equilibrada entre las empresas. Además, teniendo en consideración que los consumidores pueden tener cierto grado de heterogeneidad en sus comportamientos de adquisición, también resulta relevante estudiar el grado de diferenciación de los efectos de red entre los consumidores a fin de mejorar las políticas que fomenten la competencia. Este trabajo tiene por objetivo estimar un modelo logit mixto bajo el enfoque de la inferencia bayesiana, para estudiar empíricamente la existencia y heterogeneidad de los efectos de red sobre las decisiones de contratación de los consumidores en la industria de telefonía móvil peruana. El análisis se hace con base a una muestra que combina información de la Encuestas Residencial de Servicios de Telecomunicaciones (ERESTEL) del a˜no 2015 e información de las empresas operadoras del servicio de telefonía móvil. Los resultados de las estimaciones realizadas sugieren que los efectos de red tendrían un condicionamiento importante sobre las decisiones de contración del servicio de telefonía móvil, además de presentar un grado de heterogeneidad estadísticamente significativo en la magnitud de sus efectos. / Tesis
5

Modelos Booleanos no homogéneos. Nuevas metodologí­as, generalizaciones y aplicaciones

Gallego Pitarch, María de los Ángeles 29 July 2014 (has links)
El hilo conductor del trabajo realizado en esta tesis doctoral es el estudio de la generalización del modelo booleano al caso no homogéneo (MBNH). Para ello, se han ido planteando diversos objetivos. En primer lugar, la generalización de la función K, propia de la metodología de los modelos germen y grano, a los MBNH nos ha permitido definir una nueva característica de la distribución de probabilidad de estos modelos. En segundo lugar, un nuevo método de estimación de los parámetros de un MBNH particular ha sido planteado y comparado con los métodos existentes en la bibliografía, En tercer lugar, se ha planteado una generalización del modelo al caso espacio temporal, en particular para el caso de no homogeneidad espacial y por último se han estudiado métodos de clasificación no supervisada cuando la información muestral son imágenes binarias, que asumimos realizaciones de diferentes modelos germen y grano conocidos. En todos los trabajos se ha realizado un estudio de simulación para evaluar la adecuación de las metodologías propuestas y se han visto aplicaciones a casos reales. Todos los casos reales fueron planteados por investigadores de otras ramas científicas, motivando el desarrollo de las distintas partes del estudio. Se han estudiado diferentes aspectos de este modelo, como por ejemplo distintos métodos de estimación de sus parámetros, algunas características de su distribución de probabilidad y su generalización al caso temporal, con la introducción del modelo booleano no homogéneo temporal. Algunos de estos aspectos también podrían aplicarse a los modelos germen y grano en general. También se han estudiado métodos de clasificación no supervisada cuando la información muestral son imágenes binarias y asumimos que son realizaciones de diferentes modelos germen y grano conocidos. En todos los trabajos se ha realizado un estudio de simulación para verificar las nuevas metodologías propuestas que además se han aplicado a casos reales. En todos ellos, este caso real fue el problema inicial que se nos planteó por parte de investigadores de otras ramas científicas y que motivó el estudio. El hilo conductor del trabajo realizado en esta tesis doctoral es el estudio de una generalización del modelo booleano: el modelo booleano no homogéneo. Se han planteado diferentes objetivos sobre este modelo. Primeramente definir nuevas características de la distribución de probabilidad de un modelo Booleano no homogéneo. Se generaliza la función K para modelos germen y grano en general. Veremos Métodos de estimación de sus parámetros. Con un método nuevo podremos estimar los parámetros de un modelo booleano no homogéneo particular y será comparado con otros métodos ya existentes. Vamos a ver una Generalización al caso espacio temporal. Se generaliza el modelo booleano temporal para el caso en que el espacio no sea homogéneo. También se han estudiado métodos de clasificación no supervisada cuando la información muestral son imágenes binarias y asumimos que son realizaciones de diferentes modelos germen y grano conocidos. Algunos de estos estudios se podrán generalizar a modelos germen y grano en general.
6

Separata de Estadística Aplicada 1

Chávez Ramos, Manuel Raymundo 14 March 2007 (has links)
Contiene teoría y ejercicios de estadística aplicada.
7

Estimación de parámetros

Piña Rucoba, Gilber 14 March 2007 (has links)
Estimación por intervalos para una media y para diferencia de medias Pruebas de hipótesis para una media y una diferencia de medias.
8

Análisis conjunto de múltiples tablas de datos mixtos mediante PLS

González Rojas, Victor Manuel 28 November 2014 (has links)
The fundamental content of this thesis corresponds to the development of the GNM-NIPALIS, GNM-PLS2 and GNM-RGCCA methods, used to quantify qualitative variables parting from the first k components given by the appropriate methods in the analysis of J matrices of mixed data. These methods denominated GNM-PLS (General Non Metric Partial Least Squares) are an extension of the NM-PLS methods that only take the first principal component in the quantification function. The transformation of the qualitative variables is done through optimization processes, usually maximizing functions of covariance or correlation, taking advantage of the flexibility of the PLS algorithms and keeping the properties of group belonging and order if it exists; The metric variables are keep their original state as well, excepting standardization. GNM-NIPALS has been created for the purpose of treating one (J = 1) mixed data matrix through the quantification via ACP type reconstruction of the qualitative variables parting from a k components aggregated function. GNM-PLS2 relates two (J = 2) mixed data sets Y~X through PLS regression, quantifying the qualitative variables of a space with the first H PLS components aggregated function of the other space, obtained through cross validation under PLS2 regression. When the endogenous matrix Y contains only one answer variable the method is denominated GNM-PLS1. Finally, in order to analyze more than two blocks (J = 2) of mixed data Y~X1+...+XJ through their latent variables (LV) the GNM-RGCCA was created, based on the RGCCA (Regularized Generalized Canonical Correlation Analysis) method, that modifies the PLS-PM algorithm implementing the new mode A and specifies the covariance or correlation maximization functions related to the process. The quantification of the qualitative variables on each Xj block is done through the inner Zj = Σj ej Yj function, which has J dimension due to the aggregation of the outer Yj estimations. Zj, as well as Yj estimate the ξj component associated to the j-th block. / El contenido fundamental de esta tesis corresponde al desarrollo de los métodos GNM-NIPALS, GNM-PLS2 y GNM-RGCCA para la cuantificación de las variables cualitativas a partir de las primeras k componentes proporcionadas por los métodos apropiados en el análisis de J matrices de datos mixtos. Estos métodos denominados GNM-PLS (General Non Metric Partial Least Squares) son una extensión de los métodos NM-PLS que toman sólo la primera componente principal en la función de cuantificación. La trasformación de las variables cualitativas se lleva a cabo mediante procesos de optimización maximizando generalmente funciones de covarianza o correlación, aprovechando la flexibilidad de los algoritmos PLS y conservando las propiedades de pertenencia grupal y orden si existe; así mismo se conservan las variables métricas en su estado original excepto por estandarización. GNM-NIPALS ha sido creado para el tratamiento de una (J=1) matriz de datos mixtos mediante la cuantificación vía reconstitución tipo ACP de las variables cualitativas a partir de una función agregada de k componentes. GNM-PLS2 relaciona dos (J=2) conjuntos de datos mixtos Y~X mediante regresión PLS, cuantificando las variables cualitativas de un espacio con la función agregada de las primeras H componentes PLS del otro espacio, obtenidas por validación cruzada bajo regresión PLS2. Cuando la matriz endógena Y contiene sólo una variable de respuesta el método se denomina GNM-PLS1. Finalmente para el análisis de más de dos bloques (J>2) de datos mixtos Y~X1+...+XJ a través de sus variables latentes (LV) se implementa el método NM-RGCCA basado en el método RGCCA (Regularized Generalized Canonical Correlation Analysis) que modifica el algoritmo PLS-PM implementando el nuevo modo A y especifica las funciones de maximización de covarianzas o correlaciones asociadas al proceso. La cuantificación de las variables cualitativas en cada bloque Xj se realiza mediante la función inner Zj de dimensión J debido a la agregación de las estimaciones outer Yj. Tanto Zj como Yj estiman la componente ξj asociad al j-ésimo bloque.
9

Modelling with heterogeneity

Lamberti, Giuseppe 22 June 2015 (has links)
When collecting survey data for a specific study it is usual to have some background information, in the form for example, of socio-demographic variables. In our context, these variables may be useful in identifying potential sources of heterogeneity. Resolving the heterogeneity may mean to perform distinct analyses based on the main variables for distinct and homogeneous segments of the data, defined in terms of the segmentation variables. In 2009 Gastón Sánchez proposed an algorithm PATHMOX with the aim to automatic detecting heterogeneous segments within the PLS-PM methodology. This technique, based on recursive partitioning, produces a segmentation tree with a distinct path models in each node. At each node PATHMOX searches among all splits based on the segmentation variables and chooses the one resulting in the maximal difference between the PLS-PM models in the children nodes. Starting from the work of Sanchez the purpose of the thesis is to extend PATHMOX in the following points: 1. Extension to the PATHMOX approach to detect which constructs differentiate segments. The PATHMOX approach uses a F-global test to identify the best split in heterogeneous segments. Following the same approach it is possible to extend the testing to find which the endogenous constructs are and which are the relationships between constructs responsible of the difference between the segments. 2. Extension to the PATHMOX approach to deal with the factor invariance problem. Originally PATHMOX adapted the estimation of constructs to each detected segment, that is, once a split is performed the PLS-PM model is recalculated in every child. This leads to the problem of invariance: if the the estimation of the latent variables are recalculated in each terminal node of the tree, we cannot be sure to compare the distinct behavior of two individuals who belong to two different terminal nodes. To solve this problem we will propose a invariance test based on the X^2 distribution, where the goal of to test whether the measurement models of each terminal node can be considered equal or not among them. 3. Extension to the PATHMOX approach to overcome the parametric hypothesis of F-test. One critic to the PATHMOX approach, applied in the context of partial least square path modeling, is that it utilizes a parametric test based on the hypothesis that the residuals have a normal distribution to compare two structural models. PLS-PM in general, is utilized to model data that come from survey analysis. These data are characterized by an asymmetric distribution. This situation produces skewness in the distribution of data. As we know, PLS-PM methodology, is based in the absence of assumptions about the distribution of data. Hence, the parametric F test used in PATHMOX may represent a limit of the methodology. To overcome this limit, we will extend the test in the context of LAD robust regression. 4. Generalization of PATHMOX algorithm to any type of modeling methodology. The PATHMOX algorithm has been proposed to analyze heterogeneity in the context of the partial least square path modeling. However, this algorithm can be applied to many other kind of methodologies according to the appropriate split criterion. To generalize PATHMOX we will consider three distinct scenarios: Regression analysis (OLS, LAD, GLM regression) and Principal Component Analysis. 5. Implement the methodology, using the R software as specific library. / Cuando se realiza un estudio científico, el análisis hace énfasis sobre las variables recogidas para responder a las preguntas que se quieren hallar durante el mismo estudio. Sin embargo en muchos análisis se suele recoger más variables, como por ejemplo variables socio demográfico: sexo, status social, edad. Estas variables son conocidas como variables de segmentación, ya que pueden ser útiles en la identificación de posibles fuentes de heterogeneidad. Analizar la heterogeneidad quiere decir realizar distintas análisis para distintos colectivos homogéneos definidos a partir de las variables de segmentación. Muchas veces, si hay algún conocimiento previo, esta heterogeneidad puede ser controlada mediante la definición de segmentos a priori. Sin embargo no siempre se dispone de conocimiento suficiente para definir a priori los grupos. Por otro lado muchas variables de segmentación podrían ser disponibles para analizar la heterogeneidad de acuerdo con un apropiado algoritmo. Un algoritmo desarrollado con este objetivo fue PATHMOX, propuesto por Gastón Sanchez en 2009. Esta técnica, utilizando particiones recursivas, produce un árbol de segmentación con distintos modelos asociados a cada nodo. Para cada nodo, PATHMOX busca entre todas las variables de segmentación aquella que produce una diferencia máxima entre los modelos de los nodos hijos. Tomando como punto de partida el trabajo de Gastón Sanchez esta tesis se propone: 1. Extender PATHMOX para identificar los constructos responsables de la diferencias. PATHMOX nos permite detectar distintos modelos en un data-set sin identificar grupos a priori. Sin embargo, PATHMOX es un criterio global. Pera identificar las distintas ecuaciones y coeficientes responsables de las particiones, introduciremos los test F-block y F-coefficient. 2. Extender PATHMOX para solucionar el problema de la invariancia. En el contexto del PLS-PM (Partial Least Squares Path Modeling), PATHMOX funciona fijando las relaciones causales entre las variables latentes y el objetivo es identificar modelos con coeficientes path lo más posible distintos sin poner ninguna restricción sobre el modelo de medida. Por lo tanto, cada vez que una diferencia significativa es identificada, y dos nodos hijos vienen definidos, las relaciones causales entre las variables latentes son las mismas en ambos modelos "hijos", pero la estimación de cada variable latente se recalcula y no podemos estar seguros de comparar el comportamiento de dos individuos distintos que pertenecen a dos nodos diferentes. Para resolver este problema propondremos un test de invariancia basado en la distribución X^2, donde el objetivo del test es verificar si los modelos de cada nodo terminales se puede considerar igual o no entre ellos. 3. Extender PATHMOX para superar la hipótesis paramétrica del F-test. Una crítica a PATHMOX, aplicadas en el contexto del PLS-PM, es que el algoritmo utiliza una prueba paramétrica, basada en la hipótesis de que los residuos tienen una distribución normal, para comparar dos modelos estructurales. Para superar este límite, extenderemos el test para comparar dos regresiones robustas LAD en el contexto del PLS. 4. La generalización del algoritmo PATHMOX a cualquier tipo de metodología. El algoritmo PATHMOX ha sido propuesto para analizar la heterogeneidad en el contexto PLS-PM. Sin embargo, este algoritmo se puede aplicar a muchos otros tipos de metodologías de acuerdo con un apropiado criterio de partición. Para generalizar PATHMOX consideraremos tres escenarios distintos: modelos de regresión (modelos OLS, LAD, GLM) y el análisis en componentes principales. 5. Implementar la metodología, utilizando el software R como librería específica.
10

Interval-censored semi-competing risks data: a novel approach for modelling bladder cancer

Porta Bleda, Núria 27 July 2010 (has links)
Aquesta tesi tracta sobre tècniques d'anàlisi de supervivència en situacions amb múltiples esdeveniments i patrons complexes de censura. Proposem una nova metodologia per tractar la situació de riscos semi-competitius quan les dades estan censurades en un interval. La motivació del treball neix de la nostra col·laboració amb l'Estudi Espanyol del Càncer de Bufeta (SBC/EPICURO), el més gran estudi sobre càncer de bufeta realitzat fins ara a l'Estat Espanyol. La nostra contribució en el projecte es centra en la modelització i identificació de factors pronòstics de l'evolució de la malaltia.L'evolució de malalties complexes, com el càncer o la infecció VIH, es caracteritza per la ocurrència de múltiples esdeveniments en el mateix pacient: per exemple, la recaiguda de la malaltia o la mort. Aquests esdeveniments poden ser finals, quan el seguiment del pacient s'atura després de l'esdeveniment, o bé intermedis, quan l'individu continua sota observació. La presència d'esdeveniments finals complica l'anàlisi dels intermedis ja que n'impedeix la seva completa observació, induint una possible censura depenent.En aquest context, es requereixen metodologies apropiades. Els següents mètodes són emprats: riscos competitius, models multiestat i riscos semi-competitius. A resultes de l'aplicació de mètodes per riscos competitius i models multi-estat, proposem dues aportacions rellevants al coneixement de la malaltia: (1) la caracterització dels pacients amb un alt risc de progressió com a primer esdeveniment després de la diagnosi, i (2) la construcció d'un model pronòstic dinàmic per al risc de progressió.La situació de riscos competitius es dóna quan volem descriure el temps fins al primer entre K possibles esdeveniments, juntament amb un indicador del tipus d'esdeveniment observat. En l'estudi EPICURO, és rellevant estudiar el temps fins al primer entre recidiva, progressió o mort. La caracterització d'aquest primer esdeveniment permetria seleccionar el millor tractament d'acord amb el perfil de risc basal del pacient.Els models multi-estat descriuen les diferents evolucions que la malaltia pot seguir, establint relacions entre els esdeveniments d'interès: per exemple, un pacient pot experimentar una recidiva del tumor primari, i després morir, o bé pot morir sense haver tingut cap recaiguda de la malaltia. Una característica interessant d'aquests models és que permeten fer prediccions del risc de futurs esdeveniments per a un pacient, d'acord amb la història que hagi pogut tenir fins aquell moment. En el cas de càncer de bufeta podrem avaluar la influència que té en el risc de progressar haver patit o no una recidiva prèvia.Un cas especial de model multi-estat és aquell que conté un esdeveniment intermedi E1, i un esdeveniment final, E2. Siguin T1 i T2 els temps fins aquests esdeveniments, respectivament. Ni l'anàlisi de riscos competitius ni els models multi-estat permeten adreçar l'estudi de la distribució marginal de T1. En efecte, l'anàlisi de riscos competitius tracta amb la distribució del mínim entre els dostemps, T=min(T1,T2), mentre que els models multi-estat es centren en la distribució condicional de T2|T1, és a dir, en com la ocurrència de E1 modifica el risc de E2. En aquest cas, la distribució de T1 no és identificable a partir de les dades observades. La situació abans descrita, on la ocurrència d'un esdeveniment final impedeix l'observació de l'esdeveniment intermedi és coneguda com a riscos semi-competitius (Fine et al., 2001). L'estratègia d'aquests autors passà per assumir un model per a la distribució conjunta (T1, T2), i aleshores recuperar la distribució marginal de T1 derivada d'aquest model.Proposem una nova metodologia per tractar amb riscos semi-competitius quan el temps fins l'esdeveniment intermedi, T1, està censurat en un interval. En molts estudis mèdics longitudinals, la ocurrència de l'esdeveniment d'interès s'avalua en visites periòdiques del pacient, i per tant, T1 és desconegut, però es sap que pertany al interval comprès entre els temps de dues visites consecutives. Els mètodes per riscos semi-competitius en el context usual de censura per la dreta no són vàlids en aquest cas i és necessària una nova aproximació. En aquest treball ampliem la metodología semi-paramètrica proposada per Fine et al. (2001), que assumeix un model de còpula de Clayton (1978) per a descriure la dependència entre T1 i T2. Assumint el mateix model, desenvolupem un algoritme iteratiu que estima conjuntament el paràmetre d'associació del model de còpula, així com la funció de supervivència del temps intermedi T1.Fine, J. P.; Jiang, H. & Chappell, R. (2001), 'On Semi-Competing Risks Data', Biometrika 88(4), 907--919.Clayton, D. G. (1978), 'A Model for Association in Bivariate Life Tables and Its Application in Epidemiological Studies of Familial. Tendency in Chronic Disease Incidence', Biometrika 65(1), 141--151. / La presente tesis trata sobre técnicas de análisis de supervivencia en situaciones con múltiples eventos y patrones complejos de censura. Proponemos una nueva metodología para tratar el problema de riesgos semi-competitivos cuando los datos están censurados en un intervalo. La motivación de este trabajo nace de nuestra colaboración con el estudio Español de Cáncer de Vejiga (SBC/EPICURO), el más grande estudio sobre cáncer de vejiga realizado en España hasta el momento. Nuestra participación en el mismo se centra en la modelización e identificación de factores pronósticos en el curso de la enfermedad.El curso de enfermedades complejas tales como el cáncer o la infección por VIH, se caracteriza por la ocurrencia de múltiples eventos en el mismo paciente, como por ejemplo la recaída o la muerte. Estos eventos pueden ser finales, cuando el seguimiento del paciente termina con el evento, o bien intermedios, cuando el individuo sigue bajo observación. La presencia de eventos finales complica el análisis de los eventos intermedios, ya que impiden su completa observación, induciendo una posible censura dependiente.En este contexto, se requieren metodologías apropiadas. Se utilizan los siguientes métodos: riesgos competitivos, modelos multiestado y riesgos semi-competitivos. De la aplicación de métodos para riesgos competitivos y modelos multi-estado resultan dos aportaciones relevantes sobre el conocimiento de la enfermedad: (1) la caracterización de los pacientes con un alto riesgo de progresión como primer evento después del diagnóstico, y (2) la construcción de un modelo pronóstico y dinámico para el riesgo de progresión.El problema de riesgos competitivos aparece cuando queremos describir el tiempo hasta el primero de K posibles eventos, junto con un indicador del tipo de evento observado. En el estudio SBC/EPICURO es relevante estudiar el tiempo hasta el primero entre recidiva, progresión o muerte. La caracterización de este primer evento permitiría seleccionar el tratamiento más adecuado de acuerdo con el perfil de riesgo basal del paciente.Los modelos multi-estado describen las diferentes tipologías que el curso de la enfermedad puede seguir, estableciendo relaciones entre los eventos de interés. Por ejemplo, un paciente puede experimentar una recidiva y después morir, o bien puede morir sin haber tenido recaída alguna. El potencial interesante de los modelos multi-estado es que permiten realizar predicciones sobre el riesgo de futuros eventos dada la historia del paciente hasta ese momento. En el caso del cáncer de vejiga, podremos evaluar la influencia que tiene en el riesgo de progresar el haber tenido o no una recidiva previa.Un caso especial de modelo multi-estado es el que contiene un evento intermedio E1 y uno final, E2. Sean T1 y T2 los tiempos hasta tales eventos, respectivamente. Ni el análisis de riesgos competitivos ni los modelos multi-estado permiten estudiar la distribución marginal de T1. En efecto, el análisis de riesgos competitivos trata con la distribución del mínimo entre los dos tiempos, T=min(T1,T2), mientras que los modelos multi-estado se centran en la distribución condicional de T2 dado T1, T2|T1, en cómo la ocurrencia de E1 modifica el riesgo de E2. En ambos casos, la distribución de T1 no es identificable a partir de los datos observados.La situación anteriormente descrita donde un evento final impide la observación de un evento intermedio se conoce como riesgos semi-competitivos (Fine et al. 2001). La estrategia de estos autores asume un modelo para la distribución conjunta (T1,T2) para así recuperar la distribución de T1 derivada de ese modelo.Proponemos una nueva metodología para tratar con riesgos semi-competitivos cuando el tiempo hasta el evento intermedio, T1, esta censurado en un intervalo. En muchos estudios médicos longitudinales, la ocurrencia del evento de interés se evalúa en visitas periódicas al paciente, por lo que T1 es desconocido, aunque se conoce que pertenece al intervalo comprendido entre los tiempos de dos visitas consecutivas. Los métodos para riesgos semi-competitivos en el contexto usual de censura por la derecha no son válidos en este caso y se requiere una nueva aproximación. En este trabajo ampliamos la metodología semi-paramétrica propuesta por Fine et al. (2001), que asume una cópula de Clayton (1978) para describir la dependencia entre T1 y T2. Bajo el mismo modelo de asociación, desarrollamos un algoritmo iterativo que estima conjuntamente el parámetro de asociación del modelo de cópula, así como la función de supervivencia del tiempo al evento intermedio T1.Fine, J. P.; Jiang, H. & Chappell, R. (2001), 'On Semi-Competing Risks Data', Biometrika 88(4), 907--919. Clayton, D. G. (1978), 'A Model for Association in Bivariate Life Tables and Its Application in Epidemiological Studies of Familial. Tendency in Chronic Disease Incidence', Biometrika 65(1), 141--151.

Page generated in 0.0845 seconds