• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 84
  • 51
  • 19
  • 15
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 184
  • 90
  • 40
  • 34
  • 30
  • 28
  • 22
  • 20
  • 18
  • 17
  • 17
  • 17
  • 16
  • 16
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Contributions to privacy in web search engines

Erola Cañellas, Arnau 09 September 2013 (has links)
Els motors de cerca d’Internet recullen i emmagatzemen informació sobre els seus usuaris per tal d’oferir-los millors serveis. A canvi de rebre un servei personalitzat, els usuaris perden el control de les seves pròpies dades. Els registres de cerca poden revelar informació sensible de l’usuari, o fins i tot revelar la seva identitat. En aquesta tesis tractem com limitar aquests problemes de privadesa mentre mantenim suficient informació a les dades. La primera part d’aquesta tesis tracta els mètodes per prevenir la recollida d’informació per part dels motores de cerca. Ja que aquesta informació es requerida per oferir un servei precís, l’objectiu es proporcionar registres de cerca que siguin adequats per proporcionar personalització. Amb aquesta finalitat, proposem un protocol que empra una xarxa social per tal d’ofuscar els perfils dels usuaris. La segona part tracta la disseminació de registres de cerca. Proposem tècniques que la permeten, proporcionant k-anonimat i minimitzant la pèrdua d’informació. / Web Search Engines collects and stores information about their users in order to tailor their services better to their users' needs. Nevertheless, while receiving a personalized attention, the users lose the control over their own data. Search logs can disclose sensitive information and the identities of the users, creating risks of privacy breaches. In this thesis we discuss the problem of limiting the disclosure risks while minimizing the information loss. The first part of this thesis focuses on the methods to prevent the gathering of information by WSEs. Since search logs are needed in order to receive an accurate service, the aim is to provide logs that are still suitable to provide personalization. We propose a protocol which uses a social network to obfuscate users' profiles. The second part deals with the dissemination of search logs. We propose microaggregation techniques which allow the publication of search logs, providing $k$-anonymity while minimizing the information loss.
22

Statistical methods in Kansei engineering studies

Marco Almagro, Lluís 15 December 2011 (has links)
Aquesta tesi doctoral tracta sobre Enginyeria Kansei (EK), una tècnica per traslladar emocions transmeses per productes en paràmetres tècnics, i sobre mètodes estadístics que poden beneficiar la disciplina. El propòsit bàsic de l'EK és descobrir de quina manera algunes propietats d'un producte transmeten certes emocions als seus usuaris. És un mètode quantitatiu, i les dades es recullen típicament fent servir qüestionaris. S'extreuen conclusions en analitzar les dades recollides, normalment usant algun tipus d'anàlisi de regressió. L'EK es pot situar en l'àrea de recerca del disseny emocional. La tesi comença justificant la importància del disseny emocional. Com que el rang de tècniques usades sota el nom d'EK és extens i no massa clar, la tesi proposa una definició d'EK que serveix per delimitar el seu abast. A continuació, es suggereix un model per desenvolupar estudis d'EK. El model inclou el desenvolupament de l'espai semàntic – el rang d'emocions que el producte pot transmetre – i l'espai de propietats – les variables tècniques que es poden modificar en la fase de disseny. Després de la recollida de dades, l'etapa de síntesi enllaça ambdós espais (descobreix com diferents propietats del producte transmeten certes emocions). Cada pas del model s'explica detalladament usant un estudi d'EK realitzat per aquesta tesi: l'experiment dels sucs de fruites. El model inicial es va millorant progressivament durant la tesi i les dades de l'experiment es van reanalitzant usant noves propostes.Moltes inquietuds pràctiques apareixen quan s'estudia el model per a estudis d'EK esmentat anteriorment (entre d'altres, quants participants són necessaris i com es desenvolupa la sessió de recollida de dades). S'ha realitzat una extensa revisió bibliogràfica amb l'objectiu de respondre aquestes i altres preguntes. Es descriuen també les aplicacions d'EK més habituals, juntament amb comentaris sobre idees particularment interessants de diferents articles. La revisió bibliogràfica serveix també per llistar quines són les eines més comunament utilitzades en la fase de síntesi.La part central de la tesi se centra precisament en les eines per a la fase de síntesi. Eines estadístiques com la teoria de quantificació tipus I o la regressió logística ordinal s'estudien amb detall, i es proposen diverses millores. En particular, es proposa una nova forma gràfica de representar els resultats d'una regressió logística ordinal. S'introdueix una tècnica d'aprenentatge automàtic, els conjunts difusos (rough sets), i s'inclou una discussió sobre la seva idoneïtat per a estudis d'EK. S'usen conjunts de dades simulades per avaluar el comportament de les eines estadístiques suggerides, la qual cosa dóna peu a proposar algunes recomanacions.Independentment de les eines d'anàlisi utilitzades en la fase de síntesi, les conclusions seran probablement errònies quan la matriu del disseny no és adequada. Es proposa un mètode per avaluar la idoneïtat de matrius de disseny basat en l'ús de dos nous indicadors: un índex d'ortogonalitat i un índex de confusió. S'estudia l'habitualment oblidat rol de les interaccions en els estudis d'EK i es proposa un mètode per incloure una interacció, juntament amb una forma gràfica de representar-la. Finalment, l'última part de la tesi es dedica a l'escassament tractat tema de la variabilitat en els estudis d'EK. Es proposen un mètode (basat en l'anàlisi clúster) per segmentar els participants segons les seves respostes emocionals i una forma d'ordenar els participants segons la seva coherència en valorar els productes (usant un coeficient de correlació intraclasse). Com que molts usuaris d'EK no són especialistes en la interpretació de sortides numèriques, s'inclouen representacions visuals per a aquests dos nous mètodes que faciliten el processament de les conclusions. / Esta tesis doctoral trata sobre Ingeniería Kansei (IK), una técnica para trasladar emociones transmitidas por productos en parámetros técnicos, y sobre métodos estadísticos que pueden beneficiar la disciplina. El propósito básico de la IK es descubrir de qué manera algunas propiedades de un producto transmiten ciertas emociones a sus usuarios. Es un método cuantitativo, y los datos se recogen típicamente usando cuestionarios. Se extraen conclusiones al analizar los datos recogidos, normalmente usando algún tipo de análisis de regresión.La IK se puede situar en el área de investigación del diseño emocional. La tesis empieza justificando la importancia del diseño emocional. Como que el rango de técnicas usadas bajo el nombre de IK es extenso y no demasiado claro, la tesis propone una definición de IK que sirve para delimitar su alcance. A continuación, se sugiere un modelo para desarrollar estudios de IK. El modelo incluye el desarrollo del espacio semántico – el rango de emociones que el producto puede transmitir – y el espacio de propiedades – las variables técnicas que se pueden modificar en la fase de diseño. Después de la recogida de datos, la etapa de síntesis enlaza ambos espacios (descubre cómo distintas propiedades del producto transmiten ciertas emociones). Cada paso del modelo se explica detalladamente usando un estudio de IK realizado para esta tesis: el experimento de los zumos de frutas. El modelo inicial se va mejorando progresivamente durante la tesis y los datos del experimento se reanalizan usando nuevas propuestas. Muchas inquietudes prácticas aparecen cuando se estudia el modelo para estudios de IK mencionado anteriormente (entre otras, cuántos participantes son necesarios y cómo se desarrolla la sesión de recogida de datos). Se ha realizado una extensa revisión bibliográfica con el objetivo de responder éstas y otras preguntas. Se describen también las aplicaciones de IK más habituales, junto con comentarios sobre ideas particularmente interesantes de distintos artículos. La revisión bibliográfica sirve también para listar cuáles son las herramientas más comúnmente utilizadas en la fase de síntesis. La parte central de la tesis se centra precisamente en las herramientas para la fase de síntesis. Herramientas estadísticas como la teoría de cuantificación tipo I o la regresión logística ordinal se estudian con detalle, y se proponen varias mejoras. En particular, se propone una nueva forma gráfica de representar los resultados de una regresión logística ordinal. Se introduce una técnica de aprendizaje automático, los conjuntos difusos (rough sets), y se incluye una discusión sobre su idoneidad para estudios de IK. Se usan conjuntos de datos simulados para evaluar el comportamiento de las herramientas estadísticas sugeridas, lo que da pie a proponer algunas recomendaciones. Independientemente de las herramientas de análisis utilizadas en la fase de síntesis, las conclusiones serán probablemente erróneas cuando la matriz del diseño no es adecuada. Se propone un método para evaluar la idoneidad de matrices de diseño basado en el uso de dos nuevos indicadores: un índice de ortogonalidad y un índice de confusión. Se estudia el habitualmente olvidado rol de las interacciones en los estudios de IK y se propone un método para incluir una interacción, juntamente con una forma gráfica de representarla. Finalmente, la última parte de la tesis se dedica al escasamente tratado tema de la variabilidad en los estudios de IK. Se proponen un método (basado en el análisis clúster) para segmentar los participantes según sus respuestas emocionales y una forma de ordenar los participantes según su coherencia al valorar los productos (usando un coeficiente de correlación intraclase). Puesto que muchos usuarios de IK no son especialistas en la interpretación de salidas numéricas, se incluyen representaciones visuales para estos dos nuevos métodos que facilitan el procesamiento de las conclusiones. / This PhD thesis deals with Kansei Engineering (KE), a technique for translating emotions elicited by products into technical parameters, and statistical methods that can benefit the discipline. The basic purpose of KE is discovering in which way some properties of a product convey certain emotions in its users. It is a quantitative method, and data are typically collected using questionnaires. Conclusions are reached when analyzing the collected data, normally using some kind of regression analysis. Kansei Engineering can be placed under the more general area of research of emotional design. The thesis starts justifying the importance of emotional design. As the range of techniques used under the name of Kansei Engineering is rather vast and not very clear, the thesis develops a detailed definition of KE that serves the purpose of delimiting its scope. A model for conducting KE studies is then suggested. The model includes spanning the semantic space – the whole range of emotions the product can elicit – and the space of properties – the technical variables that can be modified in the design phase. After the data collection, the synthesis phase links both spaces; that is, discovers how several properties of the product elicit certain emotions. Each step of the model is explained in detail using a KE study specially performed for this thesis: the fruit juice experiment. The initial model is progressively improved during the thesis and data from the experiment are reanalyzed using the new proposals. Many practical concerns arise when looking at the above mentioned model for KE studies (among many others, how many participants are used and how the data collection session is conducted). An extensive literature review is done with the aim of answering these and other questions. The most common applications of KE are also depicted, together with comments on particular interesting ideas from several papers. The literature review also serves to list which are the most common tools used in the synthesis phase. The central part of the thesis focuses precisely in tools for the synthesis phase. Statistical tools such as quantification theory type I and ordinal logistic regression are studied in detail, and several improvements are suggested. In particular, a new graphical way to represent results from an ordinal logistic regression is proposed. An automatic learning technique, rough sets, is introduced and a discussion is included on its adequacy for KE studies. Several sets of simulated data are used to assess the behavior of the suggested statistical techniques, leading to some useful recommendations. No matter the analysis tools used in the synthesis phase, conclusions are likely to be flawed when the design matrix is not appropriate. A method to evaluate the suitability of design matrices used in KE studies is proposed, based on the use of two new indicators: an orthogonality index and a confusion index. The commonly forgotten role of interactions in KE studies is studied and a method to include an interaction in KE studies is suggested, together with a way to represent it graphically. Finally, the untreated topic of variability in KE studies is tackled in the last part of the thesis. A method (based in cluster analysis) for finding segments among subjects according to their emotional responses and a way to rank subjects based on their coherence when rating products (using an intraclass correlation coefficient) are proposed. As many users of Kansei Engineering are not specialists in the interpretation of the numerical output from statistical techniques, visual representations for these two new proposals are included to aid understanding.
23

Modelos estadísticos espacio temporales en perimetría

Ibáñez Gual, Ma. Victoria 24 September 2003 (has links)
El desarrollo de gran parte de los modelos y métodos estadísticos que conocemos y utilizamos en la actualidad ha ido ligado al estudio de aplicaciones específicas dentro de diversos ámbitos científicos.Nuestra motivación al empezar a trabajar con datos perimétricos, fue la de construir un modelo espacio temporal que nos permitiera modelizar la evolución, tanto espacial (en la retina) como en el tiempo (evolución temporal), de las lesiones que aparecen en la retina del paciente debidas al glaucoma. Nuestro objetivo a lo largo de la tesis, ha sido el resolver diversos problemas ligados al estudio del glaucoma, enfermedad ocular muy extendida, que se caracteriza por producir una pérdida de visión gradual en el paciente, pudiendo llegar a producirle ceguera. Para diagnosticar y evaluar el glaucoma, los oftalmólogos se basan principalmente en el análisis de campos visuales (mapas numéricos que les informan de la intensidad de visión del paciente en un conjunto de puntos de su retina). Nosotros hemos trabajado con bases de datos de campos visuales de un conjunto de pacientes, obtenidos en la consulta oftalmológica.En este trabajo hemos analizado los campos visuales bajo dos perspectivas distintas. En la primera parte de la tesis, utilizamos la metodología Geoestadística para modelizar la distribución espacio temporal de campos visuales de pacientes sanos y de pacientes con glaucoma. El objetivo de la modelización, además de describir el proceso, es la de poder realizar simulaciones y predicciones a partir de ella. En la segunda parte de la tesis, trabajamos con los métodos propios de las series temporales multivariantes, desde el punto de vista clásico.Tras hacer una revisión teórica de los métodos a utilizar, planteamos un problema bajo un enfoque bayesiano, en el que pretendemos estimar si cada posición de un campo visual observado está sana o enferma, y otro problema en el que pretendemos construir un modelo espacio temporal conjunto para caracterizar la distribución espacio temporal de campos visuales de pacientes que sufren glaucoma, y utilizar el modelo obtenido para realizar predicciones.
24

Validación del Cuestionario de Evaluación de las Relaciones Familiares Básicas (CERFB)

Ibáñez Martínez, Núria 13 January 2016 (has links)
L’objectiu d’aquesta tesi ha estat validar un nou instrument, el Qüestionari d’Avaluació de les Relacions Familiars Bàsiques (CERFB), i avaluar les seves propietats psicomètriques. El CERFB és capaç d’avaluar per un cantó, les relacions de parella i, per l’altra cantó, les relacions que tenen els pares amb el seu fill/a. Aquest qüestionari està basat en la Teoria bidimensional de les Relacions Familiars Bàsiques de Linares (1996, 2006a, 2006b, 2011, 2012). La mostra total probabilística de conveniència ha estat formada per 930 participants (451 parelles no clíniques i 28 persones amb problemes de relació de parella que sol·liciten tractament en centre privat). L’Anàlisi factorial exploratori va donar lloc a tres components que explicaven el 52,13% de la Variança. Mitjançant l’Anàlisi Factorial Confirmatori es va verificar el model bifactorial format per dos factors, Conjugalitat i Parentalitat. La fiabilitat per total de l’escala i per tots dos factors va ser molt elevada, .91, .93 i .81 respectivament. L’escala de Conjugalitat va mostrar un alt valor discriminatiu entre parelles sense problemes en la relació de parelles amb problemes, amb una Sensibilitat del 96% i Especificitat del 89%. Tan l’escala de Conjugalitat com la de Parentalitat han correlacionat amb constructes teòrics semblants demostrant la seva validesa convergent. En conclusió podem dir que el CERFB format per 25 ítems posseeix les propietats psicomètriques adients, sent un instrument vàlid i fiable per tal d’avaluar el model bidimensional de la teoria de les Relacions familiars Bàsiques. El CERF és un instrument fàcil de pasar i corretgir, sent útil en contextes clínics, socials i educatius. / El objetivo de esta tesis ha sido validar un nuevo instrumento, el Cuestionario de Evaluación de las Relaciones Familiares Básicas (CERFB), y evaluar sus propiedades psicométricas. El CERFB es capaz de evaluar por un lado, las relaciones de pareja y, por el otro lado, las relaciones que tienen los padres con sus hijos/as. Este cuestionario está basado en la Teoría bidimensional de las Relaciones Familiares Básicas de Linares (1996, 2006a, 2006b). La muestra total probabilística de conveniencia ha estado formada por 930 participantes (451 parejas no clínicas y 28 personas con problemas de relación de pareja que solicitan tratamiento en centro privado). El Análisis factorial exploratorio arrojó tres componentes que explicaban el 52,13% de la Varianza. Mediante el Análisis Factorial Confirmatorio se verificó el modelo bifactorial formado por dos factores, Conyugalidad y Parentalidad. La fiabilidad para el total de la escala y para los dos factores fue muy elevada, 91, .93 y .81, respectivamente. La escala de Conyugalidad mostró un alto valor discriminante entre parejas sin problemas de relación y parejas con problemas de relación, con una Sensibilidad del 96% y una Especificidad del 89%. Tanto la escala de Conyugalidad como la de Parentalidad han correlacionado con constructos teóricos parecidos, demuestran así su validez convergente. En conclusión podemos decir que el CERFB formado por 25 ítems posee las propiedades psicométricas pertinentes siendo un instrumento válido y fiable para evaluar el modelo bidimensional de la teoría de las Relaciones familiares Básicas. El CERF es un instrumento fácil de pasar y corregir y adecuado para ser utilizado en contextos clínicos, sociales y educativos. / The aim of this thesis has been to validate a new instrument, the questionnaire for the Evaluation of Basic Family Relations (CERFB), and evaluates its psychometric properties. The CERFB is able to assess on the one hand, couple relationships and also the relationships that have parents with their children. This questionnaire is based on the theory of dimensional Basic Family Relations of Linares (1996, 2006a, 2006b).The total sample probabilistic of convenience has been formed by 930 participants (451 non clinical couples and 28 people with relationship problems that seek treatment in a private center). The Factorial analysis produced three components that explained 52.13 % of the variance. The use of Confirmatory Factor Analysis verified the bifactor model formed by two factors: Dyadic Adjustment and Parenting. The reliability for the total scale and for the two factors was very high, 91, .93 and .81, respectively. The scale of Dyadic Adjustment showed a high value without discriminating between distressed and non distressed couples, with a sensitivity of 96% and a specificity of 89 %. Both the scales of Dyadic Adjustment and Parenting have been correlated with similar theoretical constructs, thus showing its convergent validity. In conclusion we can say that the CERFB formed by 25 items has the relevant psychometric properties, being a valid and reliable instrument to assess the two-dimensional model of the theory of basic family relations. The CERF is a tool easy to administrate and correct, and suitable for use in clinical social and educational settings.
25

"Propriedades ópticas e elétricas de filmes epitaxiais de GaAs:Si crescidos na superfície (311)A"

Semenzato, Marcos Jose 19 April 2002 (has links)
Um estudo sistemático de caracterização de filmes de GaAs dopados com Silício e crescidos por Epitaxia de Feixes Moleculares sobre substratos de GaAs orientados na superfície (311)A, foi desenvolvido visando compreender os mecanismos de incorporação do Si no filme. Na superfície (311)A o Si tem comportamento anfótero, ou seja, pode ocupar tanto o sítio do Ga como o do As, o que resulta em filmes com portadores tipo n e p, respectivamente. A característica elétrica do filme depende, basicamente, das seguintes condições de crescimento: i) razão entre os fluxos de Ga e As; e ii) temperatura do substrato. As técnicas de caracterização utilizadas foram fundamentalmente fototoluminescência, IxV e Efeito Hall. A partir dos filmes de GaAs:Si crescidos na superfície (311)A, foram estudadas as características elétricas de junções Metal-Semicondutor(M-SC) obtidas a partir da deposição seqüencial de AuGe/Ni e Au/Zn/Au para os filmes com características n e p respectivamente. A resistividade de contato foi estudada como função da temperatura e tempo de tratamento térmico, a partir de um sistema desenvolvido para RTA(Rapid Thermall Annealing), obtendo-se as condições ideais dos contatos no regime ôhmico. A técnica de Difração de R-X foi utilizada para verificar a evolução da microestrutura formada na interface M-SC, evidenciando a formação da fase AuGa, responsável pela característica ôhmica do contato. O estudo realizado serviu como base para o desenvolvimento de junções p-n baseadas na superfície (311)A e sua aplicação em dispositivos optoeletrônicos.
26

A unified theory of information

January 1956 (has links)
Kerns H. Powers. / "February 1, 1956." "This report is indentical with a thesis submitted to the Department of Electrical Engineering, M.I.T., 1956, in partial fulfillment of the requirements for the degree of Doctor of Science." / Bibliography: p. 104-105. / Army Signal Corps Contract DA36-039-sc-42607 Project 102B Dept. of the Army Project 3-99-10-022
27

Modelo setar aplicado a la volatilidad de la rentabilidad de las acciones: algoritmos para su identificación

Márquez Cebrián, Maria Dolors 27 May 2002 (has links)
Esta tesis se centra en el estudio de la serie temporal de volatilidades asociada a la rentabilidad de las acciones a partir de un modelo no lineal, el modelo SETAR "Self-Exciting Threshold AutoRegressive model". El modelo SETAR, a pesar de presentar buenas propiedades y resultados plausibles, ha sido poco utilizado debido a que la implementación de los procesos de identificación y estimación no es sencilla y tampoco está completa, lo que lleva a un proceso de modelización poco ágil. Por este motivo uno de los principales objetivos de la investigación es mejorar la automatización de estos procesos obteniendo e implementando un esquema algorítmico que permita estimar los órdenes de los procesos autoregresivos que componen el modelo, a la vez que determine para cada uno de los procesos autoregresivos cuales son los retardos significativos. El algoritmo propuesto, a diferencia del de Thanoon (1990), debe permitir trabajar con modelos de más de dos regímenes y no presentar limitaciones sobre el número de variables regresoras en cada proceso autoregresivo.En esta tesis se propone una nueva metodología que hemos denominado MIEC "Metodología para la Identificación y Estimación de Coeficientes" basada en un proceso algorítmico que permite la selección de los regresores de forma automática, así como la estimación del orden de los procesos autoregresivos. El diseño de nuestro algoritmo surge del análisis de las características de los algoritmos involucrados en las metodologías propuestas por Tong, Tsay y Thanoon para la identificación y estimación de modelos SETAR. El estudio de las propiedades de algunos criterios de información (AIC, BIC, AICc) permite demostrar que dichos criterios alcanzan el valor mínimo en modelos cuyos regresores tienen retardos consecutivos, esta propiedad es generalizable a todos los modelos SETAR. En nuestra metodología MIEC, el nuevo algoritmo se integrará con el test de linealidad TAR-F de Tsay y, si consideramos modelos SETAR con dos regímenes, con un proceso algorítmico que estima de forma automática el valor umbral.La metodología propuesta en la tesis se ha aplicado al estudio de la volatilidad asociada a la rentabilidad del IBEX-35 en el período 1990-2000. Como la volatilidad no es directamente observable y en el campo financiero no tiene una medida única, es necesario definir el concepto de volatilidad en nuestro marco de estudio y obtener en este contexto un estimador de la volatilidad. En la tesis hemos elegido como estimador de la volatilidad mensual la desviación absoluta respecto a la media del exceso de rentabilidad. Una vez obtenida la serie de volatilidades {wt}, se analizan sus características: la no estacionariedad de la serie se elimina a partir de una transformación conocida como "tasa de variación natural" yt = ln (wt) que permite interpretar yt como una medida del cambio relativo entre un período y el anterior Las características de la serie {yt} justifican la elección de un modelo SETAR y, en consecuencia, aplicamos la metodología MIEC para identificar y estimar los parámetros que caracterizan el modelo. El resultado es un SETAR (2; 2,8) con el que se explica el comportamiento histórico de la serie, y también permite realizar acertadas predicciones sobre los cambios de tendencia de la volatilidad. / This thesis is focused on the study of the volatility of the IBEX-35 returns with a non-linear model the self-exciting threshold autoregressive SETAR models; and on the improvement of the identification process.The SETAR model has certain features, that cannot be captured by a linear time series models, nevertheless this model has not been widely used in applications because the implementation of the estimation and identification process is complex, incomplete and hard. The main goal of this research is to improve the algorithm for the estimation of orders of autoregressive process and for the selecttion of significant lags.We propose, in this thesis, a new metodology - MIEC "Identification and Estimation of Coeficients Methodology"- based on an algorithmic process for the automatic selection of the regressors, and the estimation of autoregressive process orders. The analysis of Tong's methodology, Tsay's algorithm and Thanoon's algorithm has helped us to design our proposal. We have proved that the AIC (Akaike's Information Criteria), the BIC (Bayesian Information Criteria) and the AICc (Corrected Akaike's Information Criteria) are minimun if the model has regressors with consecutive lags; this feature is true in SETAR models. MIEC methodology builds an algorithm which incorporates a linearity test, the TAR-F test of Tsay, and to permits the automatic estimation of threshold in SETAR models with two regimes.We have applied our methodology to the study of the volatility of IBEX 35 returns from 1990 to 2000. As volatility is not observable, we need to construct a volatility measure, but first, it is necessary to clarify the concept of volatility, because this term is used in practice in different ways. In this thesis, we have used the absolute value of monthly excess return minus its mean as the estimator of volatility. The study of the new series gives a SETAR model to explain the behaviour of the volatility time series. The application of the MIEC procedure to the volatility of IBEX 35 returns estimates a SETAR (2; 2 ,8) model. This model explains the historical behaviour of the time series, and is able to forecast the volatility trend's changes.
28

Inference for a General Class of Models for Recurrent Events with application to cancer data

González Ruiz, Juan Ramón 29 December 2005 (has links)
La necesidad del análisis de supervivencia aparece cuando necesitamos estudiar las propiedades estadísticas de una variable que describe el tiempo hasta que ocurre un evento único. En algunas ocasiones, podemos observar que el evento de interés ocurre repetidamente en un mismo individuo, como puede ser el caso de un paciente diagnosticado de cáncer que recae a lo largo del tiempo o cuando una persona es reingresada repetidas veces en un hospital. En este caso hablamos de análisis de supervivencia con eventos recurrentes. La naturaleza recurrente de los eventos hace necesario el uso de otras técnicas distintas a aquellas que utilizamos cuando analizamos tiempos de supervivencia para un evento único. En esta tesis, tratamos este tipo de análisis principalmente motivados por dos estudios en investigación en cáncer que fueron creados especialmente para este trabajo. Uno de ellos hace referencia a un estudio sobre readmisiones hospitalarias en pacientes diagnosticados con cáncer colorectal, mientras que el otro hace referencia a pacientes diagnosticados con linfomas no Hodgkinianos. Este último estudio es especialmente relevante ya que incluimos información sobre el efecto del tratamiento después de las recaídas y algunos autores han mostrado la necesidad de desarrollar un modelo específico para pacientes que presentan este tipo de enfermedades. Nuestra contribución al análisis univariante es proponer un método para construir intervalos de confianza para la mediana de supervivencia en el caso de eventos recurrentes. Para ello, hemos utilizado dos aproximaciones. Una de ellas se basa en las varianzas asintóticas derivadas de dos estimadores existentes de la función de supervivencia, mientras que el otro utiliza técnicas de remuestreo. Esta última aproximación es útil ya que uno de los estimadores utilizados todavía no tiene una forma cerrada para su varianza. La nueva contribución de este trabajo es el estudio de cómo hacer remuestreo en la presencia de datos con eventos recurrentes que aparecen de un esquema conocido como --sum-quota accrual" y la informatividad del mecanismo de censura por la derecha que presentan este tipo de datos. Demostramos la convergencia d bil y los intervalos de confianza asintóticos se construyen utilizando dicho resultado. Por otro lado, el análisis multivariante trata el problema de cómo incorporar más de una covariable en el análisis. En problemas con eventos recurrentes, también necesitamos tener en cuenta que además de las covariables, la hetereogeneidad, el número de ocurrencias, o especialmente, el efecto de las intervenciones después de las reocurrencias puede modificar la probabilidad de observar un nuevo evento en un paciente. Este último punto es muy importante ya que todavía no se ha tenido en cuenta en estudios biomédicos. Para tratar este problema, hemos basado nuestro trabajo en un nuevo modelo para eventos recurrentes propuesto por Peña y Hollander, 2004. Nuestra contribución a este punto es la adaptación de las recaídas en cáncer utilizando este modelo en el que el efecto de las intervenciones se representa mediante un proceso llamado --edad efectiva' que actúa sobre la función de riesgo basal. Hemos llamado a este modelo modelo dinámico de cáncer (--dynamic cancer model'). También tratamos el problema de la estimación de parámetros de la clase general de modelos para eventos recurrentes propuesta por Peña y Hollander donde el modelo dinámico de cáncer se puede ver como un caso especial de este modelo general. Hemos desarrollado dos aproximaciones. La primera se basa en inferencia semiparamétrica, donde la función de riesgo basal se especifica de forma no paramétrica y usamos el algoritmo EM. La segunda es una aproximación basada en verosimilitud penalizada donde adoptamos dos estrategias diferentes. Una de ellas se basa en penalizar la verosimilitud parcial donde la penalización recae en los coeficientes de regresión. La segunda penaliza la verosimilitud completa y da una estimación no paramétrica de la función de riesgo basal utilizando un estimador continuo. La solución se aproxima utilizando splines. La principal ventaja de este método es que podemos obtener fácilmente una estimación suave de la función de riesgo así como una estimación de la varianza de la varianza de la fragilidad, mientras que con las otras aproximaciones esto no es posible. Además este último método presenta un coste computacional bastante más bajo que los otros. Los resultados obtenidos con datos reales, indican que la flexibilidad de este modelo es una garantía para analizar datos de pacientes que recaen a lo largo del tiempo y que son intervenidos después de las recaídas tumorales.El aspecto computacional es otra de las contribuciones importantes de esta tesis al campo de los eventos recurrentes. Hemos desarrollado tres paquete de R llamados survrec, gcmrec y frailtypack que están accesibles en CRAN, http://www.r-project.org/. Estos paquetes permiten al usuario calcular la mediana de supervivencia y sus intervalos de confianza, estimar los par metros del modelo de Peña y Hollander (en particular el modelo dinámico de cáncer) utilizando el algoritmo EM y la verosimilitud penalizada, respectivamente. / Survival analysis arises when we are interested in studying statistical properties of a variable which describes the time to a single event. In some situations, we may observe that the event of interest occurs repeatedly in the same individual, such as when a patient diagnosed with cancer tends to relapse over time or when a person is repeatedly readmitted in a hospital. In this case we speak about survival analysis with recurrent events. Recurrent nature of events makes necessary to use other techniques from those used when we analyze survival times from one single event. In this dissertation we deal with this type of analysis mainly motivatedby two studies on cancer research that were created specially for this research. One of them belongs to a study on hospital readmissions in patients diagnosed with colorectal cancer, while the other one deals with patients diagnosed with non-Hodgkin's lymphoma. This last study is mainly relevant since we include information about the effect of treatment after relapses and some authors have stated the needed of developing a specific model for relapsing patients in cancer settings.Our first contribution to univariate analysis is to propose a method to construct confidence intervals for the median survival time in the case of recurrent event settings. Two different approaches are developed. One of them is based on asymptotic variances derived from two existing estimators of survival function, while the other one uses bootstrap techniques. This last approach is useful since one of the estimators used, does not have any closed form for its variance yet. The new contribution to this work is the examination of the question of how to do bootstrapping in the presence of recurrent event data arising from a sum-quota accrual scheme and informativeness of right censoring mechanism. Weak convergence is proved and asymptotic confidence intervals are built to according this result. On the other hand, multivariate analysis addresses the problem of how incorporate more than one covariate in the analysis. In recurrent event settings, we also need to take into account that apart from covariates, the heterogeneity, the number of occurrences or specially, the effect of interventions after re occurrences may modify the probability of observing a new event in a patient. This last point is a very important one since it has not been taken into consideration in biomedical studies yet. To address this problem, we base our work on a new model for recurrent events proposed by Peña and Hollander. Our contribution to this topic is to accommodate the situation of cancer relapses to this model model in which the effect of interventions is represented by an effective age process acting on the baseline hazard function. We call this model dynamic cancer model.We also address the problem of estimating parameters of the general class of models for recurrent events proposed by Peña and Hollander, 2004, where the dynamic cancer model may be seen as a special case of this general model. Two general approaches are developed. First approach is based on semiparametric inference, where a baseline hazard function is nonparametrically specified and uses the EM algorithm. The second one is a penalized likelihood approach where two different strategies are adopted. One of them is based on penalizing the partial likelihood where the penalization bears on a regression coefficient. The second penalized approach penalized full likelihood, and it gives a non parametric estimation of the baseline hazard function using a continuous estimator. The solution is then approximated using splines. The main advantage of this method is that we caneasily obtain smooth estimates of the hazard function and an estimation of the variance of frailty variance, while in the other approaches this is not possible. In addition, this last approach has a quite less computational cost than the other ones. The results obtained using dynamic cancer model in real data sets, indicate that the flexibility of this method provides a safeguard for analyzing data where patients relapse over time and interventions are performed after tumoral reoccurrences.Computational issue is another important contribution of this work to recurrent event settings. We have developed three R packages called survrec, gcmrec, and frailtypack that are available at CRAN, http://www.r-project.org/. These packages allow users to compute median survival time and their confidence intervals, to estimate the parameters involved in the Peña and Hollander's model (in particular in the dynamic cancer model) using EM algorithm, and to estimate this parameters using penalized approach, respectively.
29

lnvestigación comparativa de la eficiencia (COMER): Metanálisis de estudios coste-­efectividad sobre distribuciones cópulas

Crespo Palomo, Carlos 05 November 2014 (has links)
La evaluación económica de tecnologías sanitarias supone un conjunto de herramientas que tienen como finalidad examinar las consecuencias que tiene, en el corto y largo plazo, la utilización de las tecnologías sanitarias en los individuos y en la sociedad en su conjunto. Puesto que existen múltiples alternativas donde asignar dichos recursos, la evaluación económica trata de poner al alcance de los decisores del ámbito sanitario aquella información relevante desde el punto de vista de la eficiencia. Es por ello que la estadística se ha convertido en una pieza clave cada vez más necesaria para mejorar y desarrollar nuevos métodos para la evaluación económica. Actualmente las revisiones sistemáticas y su metanálisis de estudios de evaluación económica consisten en una descripción narrativa de los estudios realizando sólo el metanálisis de cada uno de sus componentes y obviando la relación existente entre costes y efectos. En esta tesis se ha desarrollado un nuevo método para llevar a cabo el metanálisis de estudios coste-efectividad, bautizándolo como COMER (del inglés, Comparative Eficiency Research). El metanálisis propuesto consiste en la estimación del beneficio monetario neto incremental total (TINB), ponderación de los beneficios monetarios netos incremental (INB) de cada estudio a partir de la inversa de la varianza. Para validar el método se estudió cómo incorporar la estructura de dependencia entre costes y efectos mediante las distribuciones cópulas. De tal forma que se simuló la distribución Frank Copula con dependencia positiva donde se asoció a las distribuciones marginales la distribución lognormal para costes y la distribución gamma para desutilidades. Se crearon cohortes hipotéticas variando el tamaño muestral y asumiendo tres escenarios con todas las combinaciones posibles: alternativa coste-efectiva, alternativa no coste-efectiva y alternativa dominante. Se comparó el resultado del COMER con resultado teórico en función del ratio coste-efectividad incremental y el INB, asumiendo un margen de error de 2.000 y 500 unidades monetarias, respectivamente. Adicionalmente, se estimó cual sería el tamaño muestral mínimo para poder obtener mediante COMER una estimación ajustada con un probabilidad alta (>70%). También se evaluó en qué medida el tamaño muestral permite alcanzar la convergencia a la τ de Kendall original. Para poder aplicarse esta aproximación del metanálisis mediante el TINB será necesario que en las evaluaciones económicas futuras se incorpore como resultado la matriz de covarianzas de la diferencia de costes y efectos. En el capítulo 1 de la tesis se hace una revisión de los conceptos de evaluación económica ahondando en qué métodos estadísticos se aplican en cada caso, así como cuál es el uso de los metanálsis. En este mismo capítulo se describen la teoría subyacente en las distribuciones cópulas y la utilización residual en el ámbito de la evaluación económica. En el capítulo 2 se indican tanto el objetivo general como los objetivos específicos de estudiar como incorporar la simulación a nivel de paciente en un estudio coste-efectividad de microsimulación y como incorporar la estructura de correlación en las simulaciones basado en regresiones. En el capítulo 3 se incluyen los informes de los directores de la tesis para los cuatro artículos incluidos en la misma. En el capítulo 4 se realiza la discusión de los cuatro artículos, profundizando en el método COMER. Los artículos propiamente se pueden localizar en el capítulo 6, así como un resumen de los mismos. Se han incorporado dos apéndices con el código en R que permiten ejecutar el método. / Economic evaluation of health technologies (EEHT) entails a set of tools which aim to examine the short and long-term consequences of using health technologies on individuals and society. Since there are numerous alternatives for allocating those resources, EEHT make relevant information from the efficiency perspective available to the people who make decisions in the health field. For this reason, the statistic is more necessary to improve and develop new methods for economic evaluation. Currently, systematic review and met-analysis of economic evaluations studies lies only in a narrative description with a meta-analysis of compound and forget structure relation between cost and effects. In this thesis, I have developed a new method to carry out a meta-analysis for cost-effectiveness studies, defined as COMparative Efficiency Research (COMER). Meta-analysis consists in the creation of total incremental net benefit (TINB), the weighting of incremental net benefits (INB), from the inverse variance of each study. Validation was carried out by simulating dependence structure between cost and effects by copula distribution. I have simulated a Frank copula distribution with positive dependence associated to a log-normal distribution for costs and gamma distribution for disutilities. Hypothetical cohorts were created by varying sample size and assuming three scenarios: cost-effective alternative, non-cost-effective alternative and dominant. The COMER result was compared to the theoretical one in function of the incremental cost-effectiveness ratio and the INB, assuming a margin of error of 2,000 and 500 monetary units, respectively. Additionally, I estimated what the minimum sample size would be to obtain through COMER an adjusted estimation with a high probability (>70%) and when simulations converged to the original τ of Kendall. This meta-analysis approximation by TINB can be used as long as the covariance matrix of the difference between costs and effects will be available. Chapter 1 is a review of EEHT concepts linked with statistical methods, the use of meta-analysi and copula distribution theory. Chapter 2 shows main objective and focus on how to include simulations at patient level in cost-effectiveness microsimulations study and correlation dependence with regressions. Chapter 3 includes Thesis Directors report for four articles. Chapter 4 discusses the articles and deepens the COMER method.
30

Medidas de divergencia en análisis de datos

Salicrú, Miquel 30 April 1987 (has links)
Un problema interesante que se plantea en análisis de datos es la elección adecuada de medidas que cuantifiquen las analogías y diferencias entre individuos, poblaciones o grupos de poblaciones.De forma general, han sido desarrolladas distintas formas de elección de tales medidas, siendo destacables las medidas que provienen de diferencias intrínsecas entre individuos, las medidas que provienen de consideraciones sobre funciones, de entropía, y las medidas que provienen exclusivamente de consideraciones teóricas. En esta memoria, hemos estudiado estas medidas a partir de la clasificación de medidas de distanciación realizada por Burbea y Rao (1982).En la primera parte (cap. 1, 2 y 3), se presentan las distintas divergencias, se estudian inter-relaciones y se analiza la convexidad.En la segunda parte (cap. 4) se estudian las métricas diferenciales asociadas a divergencias invariantes frente a cambios no singulares de parámetros y variables aleatorias.En la tercera parte (cap. 5 y 6) se analizan las relaciones entre la J-divergencia y las entropías comúnmente utilizadas.Finalmente, en los anexos I y II se presentan los programas utilizados en el cap. 6.

Page generated in 0.0476 seconds