• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 11
  • 7
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 58
  • 58
  • 13
  • 11
  • 10
  • 9
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Utility-based optimization of phase II / phase III clinical development / Optimisation de la phase II/III d'un développement clinique basée sur l'utilité

Aouni, Jihane 16 September 2019 (has links)
Le développement majeur de la thèse a été consacré au problème d’optimisation du choix de dose dans les essais de recherche de dose, en phase II. Nous avons considéré ce problème sous l’angle des fonctions d’utilité. Nous avons alloué une valeur d’utilité aux doses, le problème pour le sponsor étant de trouver la meilleure dose, c’est-à-dire celle dont l’utilité est la plus élevée.Dans ce travail, nous nous sommes limités à une seule fonction d’utilité, intégrant deux composantes: une composante liée à l’efficacité (la POS=puissance d’un essai de phase III de 1000 patients de cette dose contre placebo) et une autre liée à la safety. Pour cette dernière, nous avons choisi de la caractériser par la probabilité prédictive d’observer un taux de toxicité inférieur ou égal à un certain seuil (que nous avons fixé à 0.15) en phase III (toujours pour un essai de 1000 patients au total). Cette approche a l’avantage d’être similaire aux concepts utilisés dans les essais de phase I en oncologie qui ont notamment pour objectif la recherche de la dose liée à une toxicité limite (notion de ”Dose limiting Toxicity”).Nous avons retenu une approche bayésienne pour l’analyse des données de la phase II.Mis à part les avantages théoriques connus de l’approche bayésienne par rapport à l’approche fréquentiste (respect du principe de vraisemblance, dépendance moins grande aux résultats asymptotiques, robustesse), nous avons choisi l’approche bayésienne pour plusieurs raisons:• Combinant, par définition même de l’approche bayésienne, une information a priori avec les données disponibles, elle offre un cadre plus flexible la prise de décision du sponsor: lui permettant notamment d’intégrer de manière plus ou moins explicite les informations dont il dispose en dehors de l’essai de la phase II.• L’approche bayésienne autorise une plus grande flexibilité dans la formalisation des règles de décision.Nous avons étudié les propriétés des règles de décisions par simulation d’essais de phase II de différentes tailles: 250, 500 et 1000 patients. Pour ces deux derniers design nous avons aussi évalué l’intérêt de d’effectuer une analyse intermédiaire lorsque la moitié des patients a été enrôlée (c’est-à-dire avec respectivement les premiers 250 et 500 patients inclus). Le but était alors d’évaluer si, pour les essais de phase II de plus grande taille, s’autoriser la possibilité de choisir la dose au milieu de l’étude et de poursuivre l’étude jusqu’au bout si l’analyse intermédiaire n’est pas concluante permettait de réduire la taille de l’essai de phase II tout en préservant la pertinence du choix de dose final. / The main development of the thesis was devoted to the problem of dose choice optimization in dose-finding trials, in phase II. We have considered this problem from the perspective of utility functions. We have allocated a utility value to the doses itself, knowing that the sponsor’s problem was now to find the best dose, that is to say, the one having the highest utility. We have limited ourselves to a single utility function, integrating two components: an efficacy-related component (the PoS = the power of a phase III trial - with 1000 patients - of this dose versus placebo) and a safety-related component. For the latter, we chose to characterize it by the predictive probability of observing a toxicity rate lower or equal to a given threshold (that we set to 0.15) in phase III (still for a trial of 1000 patients in total). This approach has the advantage of being similar to the concepts used in phase I trials in Oncology, which particularly aim to find the dose related to a limiting toxicity (notion of "Dose limiting Toxicity").We have adopted a Bayesian approach for the analysis of phase II data. Apart from the known theoretical advantages of the Bayesian approach compared with the frequentist approach (respect of the likelihood principle, less dependency on asymptotic results, robustness), we chose this approach for several reasons:• It provides a more flexible framework for the decision-making of the sponsor because it offers the possibility to combine (by definition of the Bayesian approach) a priori information with the available data: in particular, it offers the possibility to integrate, more or less explicitly, the information available outside the phase II trial.• The Bayesian approach allows greater flexibility in the formalization of the decision rules.We studied the properties of decision rules by simulating phase II trials of different sizes: 250, 500 and 1000 patients. For the last two designs (500 and 1000 patients in phase II), we have also evaluated the interest of performing an interim analysis when half of the patients are enrolled (i.e. with the first 250and the first 500 patients included respectively). The purpose was then to evaluate whether or not, for larger phase II trials, allowing the possibility of choosing the dose in the middle of the study and continuing the study to the end if the interim analysis is not conclusive, could reduce the size of the phase II trial while preserving the relevance of the final dose choice.
32

A Generalized Acceptance Urn Model

Wagner, Kevin P 05 April 2010 (has links)
An urn contains two types of balls: p "+t" balls and m "-s" balls, where t and s are positive real numbers. The balls are drawn from the urn uniformly at random without replacement until the urn is empty. Before each ball is drawn, the player decides whether to accept the ball or not. If the player opts to accept the ball, then the payoff is the weight of the ball drawn, gaining t dollars if a "+t" ball is drawn, or losing s dollars if a "-s" ball is drawn. We wish to maximize the expected gain for the player. We find that the optimal acceptance policies are similar to that of the original acceptance urn of Chen et al. with s=t=1. We show that the expected gain function also shares similar properties to those shown in that work, and note the important properties that have geometric interpretations. We then calculate the expected gain for the urns with t/s rational, using various methods, including rotation and reflection. For the case when t/s is irrational, we use rational approximation to calculate the expected gain. We then give the asymptotic value of the expected gain under various conditions. The problem of minimal gain is then considered, which is a version of the ballot problem. We then consider a Bayesian approach for the general urn, for which the number of balls n is known while the number of "+t" balls, p, is unknown. We find formulas for the expected gain for the random acceptance urn when the urns with n balls are distributed uniformly, and find the asymptotic value of the expected gain for any s and t. Finally, we discuss the probability of ruin when an optimal strategy is used for the (m,p;s,t) urn, solving the problem with s=t=1. We also show that in general, when the initial capital is large, ruin is unlikely. We then examine the same problem with the random version of the urn, solving the problem with s=t=1 and an initial prior distribution of the urns containing n balls that is uniform.
33

Distribution verticale du carbone dans les sols - Analyse bayésienne des profils des teneurs en carbone et de C14 / Vertical Distribution of carbon in Soils - Bayesian Analysis of carbon content and C14 profiles

Jreich, Rana 28 November 2018 (has links)
Le réchauffement climatique est un problème majeur pour le monde scientifique et les sociétés. La concentration de dioxyde de carbone a augmenté de 45% depuis la période préindustrielle (Harris, 2010), conséquence des activités humaines déséquilibrant le cycle du carbone mondial. Cela se traduit par un réchauffement de la planète avec des impacts dramatiques sur la terre et encore plus pour les populations fragiles.Parmi les solutions d'atténuation, une meilleure utilisation du sol est proposée. En effet, les sols ont la plus grande capacité d'échange de carbone avec l'atmosphère et renferment un stock important de carbone. Une augmentation minime du stock de carbone du sol, les échanges de carbone entre l'atmosphère et le sol plus favorables à la séquestration du carbone dans le sol compenseraient les émissions de carbone provenant de la combustion des combustibles fossiles. Cependant, la dynamique du carbone dans le sol souffre encore de connaissances insuffisantes. Il subsiste alors une grande incertitude quant à la réponse du carbone du sol aux changements climatiques et aux changements d'affectation des terres.Plusieurs modèles mécanistiques ont été développés pour mieux comprendre la dynamique du carbone du sol. Cependant, ces modèles mécanistes ont encore une vue incomplète des processus physiques affectant la matière organique (MO) du sol. Il faudra beaucoup de temps pour obtenir un modèle complet et à jour de la dynamique des sols.Dans ma thèse, nous avons proposé un modèle statistique bayésien visant à décrire la dynamique verticale du carbone du sol. Cela se fait grâce à la modélisation du carbone organique du sol et aussi des données radiocarbone, car elles illustrent le temps de séjour de la MO et donc la dynamique du carbone du sol. Cette approche statistique visait à mieux représenter les incertitudes sur la dynamique du carbone du sol et quantifier les effets des facteurs climatiques et environnementaux sur le carbone des sols superficiels et profonds.Cette méta-analyse a été réalisée sur une base de données de 344 profils, collectés à partir de 87 articles scientifiques et archéologiques et paléoclimatologiques, sous différentes conditions climatiques et environnementales.Un modèle non linéaire hiérarchique avec effets aléatoires a été proposé pour modéliser la dynamique verticale du radiocarbone en fonction de la profondeur. Les techniques de sélection bayésiennes, récemment publiées, ont été appliquées aux couches latentes de notre modèle, elles-mêmes liées par une relation linéaire aux facteurs climatiques et environnementaux. Le Bayesian Group Lasso, le Bayesian Sparse Group Selection(BSGS) et le Bayesian Effect Fusion(BEF) ont été testés pour identifier les principaux prédicteurs explicatifs catégoriels et le Stochastic Search Variable Selection pour identifier les prédicteurs explicatifs numériques influents. Une comparaison de ces techniques bayésiennes a été effectuée sur la base des critères de sélection du modèle bayésien pour spécifier quel modèle a le meilleur pouvoir prédictif En plus de la sélection de prédicteurs catégoriels, le BSGS permet de formuler une probabilité d'inclusion a posteriori pour chaque niveau dans les prédicteurs catégoriels comme type de sol et type d'écosystème. En outre, le BEF a permis de fusionner les types de sol et les types d’écosystèmes qui, selon le BEF, sont supposés avoir les mêmes effets sur nos réponses d’intérêts que la réponse du radiocarbone du sol arable.L'application de ces techniques a permis de prédire, en moyenne et au niveau mondial, la dynamique verticale du radiocarbone dans le cas d'une augmentation de température et de changement d’usage des sols. Par exemple, nous avons étudié l'impact de la déforestation des forêts tropicales et leur remplacement par des terres cultivées sur la dynamique du carbone du sol. La même analyse statistique a également été effectuée pour mieux comprendre la dynamique verticale de la teneur en carbone du sol. / Global warming is a major issue for both the scientific world and societies. The concentration of carbon dioxide has increased by 45% since the pre-industrial era (Harris, 2010) as a consequence of human activities, unbalancing the global carbon cycle. This results in global warming with dramatic impacts on the Earth, particularly for fragile populations.Amongst mitigation solutions, a better use of soil is proposed. Soils have the largest capacity of carbon exchanges with the atmosphere and contain a large stock of carbon. A tiny increase in this soil carbon stock and in carbon exchanges between atmosphere and soil would be more favorable to soil carbon sequestration and would compensate for carbon emissios from burning fossil fuel. However, soil carbon dynamics still suffers from insufficient knowledge. There remains therefore a huge uncertainty about the soil carbon response to climate and land-use changes.While several mechanistic models have been developed to better understand the dynamics of soil carbon, they provide an incomplete view of the physical processes affecting soil organic matter (OM). It will be long before a complete and updated soil dynamics model becomes available.In my thesis, I propose a Bayesian statistical model aiming at describing the vertical dynamics of soil carbon. This is done thanks to the modeling of both soil organic carbon and of radiocarbon data as they illustrate the residence time of organic matter and thus the soil carbon dynamics. The purpose of this statistical approach was to better represent the uncertainties on soil carbon dynamics and to quantify the effects of climatic and environmental factors on both surface and deep soil carbon.This meta-analysis was performed on a database of 344 profiles, collected from 87 soil science papers and the literature in archeology and paleoclimatology, under different climate conditions (temperature, precipitation, etc.) and environments (soil type and type of ecosystem).A hierarchical non-linear model with random effects was proposed to model the vertical dynamics of radiocarbon as a function of depth. Bayesian selection techniques, recently published, were applied to the latent layers of the model, which in turn are linked by a linear relationship to the climatic and environmental factors. The Bayesian Group Lasso with Spike and Slab Prior (BGL-SS), the Bayesian Sparse Group Selection (BSGS) and the Bayesian Effect Fusion model-based clustering (BEF) were tested to identify the significant categorical explanatory predictors (soil type, ecosystem type) and the Stochastic Search Variable Selection method to identify the influential numerical explanatory predictors. A comparison of these Bayesian techniques was made based on the Bayesian model selection criteria (the DIC (Deviance Information Criterion), the Posterior Predictive Check, etc.) to specify which model has the best predictive and adjustment power of the database profiles. In addition to selecting categorical predictors, the BSGS allows the formulation of an a posteriori inclusion probability for each level within the categorical predictors such as soil type and ecosystem type (9 soil types and 6 ecosystem types were considered in our study). Furthermore, the BEF made it possible to merge the types of soil as well as the types of ecosystem, which according to the BEF, are considered to have the same effects on the responses of interest here, such as the response of the topsoil radiocarbon.The application of these techniques allowed us to predict, on average and on a global level, the vertical dynamics of the radiocarbon in the case of a temperature increase of 1, 1.5 and 2 °C, and in the case of a change in vegetation cover. For example, we studied the impact of deforesting tropical forests and replacing them by cultivated land on soil carbon dynamics. The same statistical analysis was also done to better understand the vertical dynamics of soil carbon content.
34

Information theory as a unified tool for understanding and designing human-computer interaction / La théorie de l’information comme un outil unifié pour comprendre et concevoir l’interaction humain-machine

Liu, Wanyu 22 November 2018 (has links)
La théorie de l'information a influencé un grand nombre de domaines scientifiques depuis son introduction par Claude Shannon en 1948. A part la loi de Fitts et la loi de Hick, qui sont apparus lorsque les psychologues expérimentaux étaient encore enthousiastes à l'idée d'appliquer la théorie de l'information aux différents domaines de la psychologie, les liens entre la théorie de l'information et l'interaction humain-machine (IHM) ont été peu explorés. L'objectif de cette thèse est de combler le fossé entre la théorie de l'information et l'IHM en considérant que l'interaction entre les humains et les machines peut être considérée comme un processus de communication et peut donc être caractérisée à l'aide des concepts de la théorie de l'information. Les trois principales contributions de cette thèse sont : (1) une perspective historique détaillée sur la manière dont la théorie de l'information a influencé la psychologie et l'IHM, avec en particulier une discussion approfondie et une analyse de la pertinence de la loi de Hick pour l'IHM, (2) le cadre formel Gain d'Information Bayésienne (BIG pour Bayesian Information Gain) qui quantifie et exploite les informations envoyées par l'utilisateur à l'ordinateur pour exprimer son intention et (3) une illustration des avantages de l'utilisation des mesures de la théorie de l'information pour évaluer la performance des entrées et pour caractériser une tâche d'interaction. Cette thèse démontre ainsi que la théorie de l'information peut être utilisée comme un outil unifié pour comprendre et concevoir la communication et l'interaction humain-machine. / Information theory has influenced a large number of scientific fields since its first introduction in 1948. Apart from Fitts' law and Hick's law, which came out when experimental psychologists were still enthusiastic about applying information theory to various areas of psychology, the relation between information theory and human-computer interaction (HCI) has rarely been explored. This thesis strives to bridge the gap between information theory and HCI by taking the stance that human-computer interaction can be considered as a communication process and therefore can be characterized using information-theoretic concepts. The three main contributions are: (1) a detailed historical perspective on how information theory influenced psychology and HCI, particularly an in-depth discussion and analysis of how relevant Hick's law is to HCI; (2) a Bayesian Information Gain (BIG) framework that quantifies the information sent by the user to the computer to express her intention; and (3) a further illustration of the advantages of using information-theoretic measures to evaluate input performance and to characterize the rich aspects of an interaction task. This thesis demonstrates that information theory can be used as a unified tool to understand and design human-computer communication.
35

Bayesian Designing and Analysis of Simple Step-Stress Accelerated Life Test with Weibull Lifetime Distribution

Liu, Xi January 2010 (has links)
No description available.
36

Modeling Permissive Left-Turn Gap Acceptance Behavior at Signalized Intersections

Zohdy, Ismail Hisham 04 December 2009 (has links)
The research presented in this thesis, studies driver gap acceptance behavior for permissive left turn movements at signalized intersections. The thesis attempts to model the gap acceptance behavior using three different approaches, a deterministic statistical approach, a stochastic approach, and a psycho-physical approach. First, the deterministic statistical modeling approach is conducted using logistic regression to characterize the impact of a number of variables on driver gap acceptance behavior. The variables studied are the gap duration, the driver's wait time in search of an acceptable gap, the time required to travel to clear the conflict point, and the rain intensity. Considering stochastic gap acceptance, two stochastic approaches are compared, namely: a Bayesian and a Bootstrap approach. The study develops a procedure to model stochastic gap acceptance behavior while capturing model parameter correlations without the need to store all parameter combinations. The model is then implemented to estimate stochastic opposed saturation flow rates. Finally, the third approach uses a psycho-physical modeling approach. The physical component captures the vehicle constraints on gap acceptance behavior using vehicle dynamics models while the psychological component models the driver deliberation and decision process. In general, the three proposed models capture gap acceptance behavior for different vehicle types, roadway surface conditions, weather effects and types of control which could affect the driver gap acceptance behavior. These findings can be used to develop weather responsive traffic signal timings and can also be integrated into emerging IntelliDrive systems. / Master of Science
37

Modèles paramétriques pour la tomographie sismique bayésienne / Parametric models for bayesian seismic tomography

Belhadj, Jihane 02 December 2016 (has links)
La tomographie des temps de première arrivée vise à retrouver un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée mesurés. Cette technique nécessite la résolution d’un problème inverse afin d’obtenir un modèle sismique cohérent avec les données observées. Il s'agit d'un problème mal posé pour lequel il n'y a aucune garantie quant à l'unicité de la solution. L’approche bayésienne permet d’estimer la distribution spatiale de la vitesse de propagation des ondes sismiques. Il en résulte une meilleure quantification des incertitudes associées. Cependant l’approche reste relativement coûteuse en temps de calcul, les algorithmes de Monte Carlo par chaînes de Markov (MCMC) classiquement utilisés pour échantillonner la loi a posteriori des paramètres n'étant efficaces que pour un nombre raisonnable de paramètres. Elle demande, de ce fait, une réflexion à la fois sur la paramétrisation du modèle de vitesse afin de réduire la dimension du problème et sur la définition de la loi a priori des paramètres. Le sujet de cette thèse porte essentiellement sur cette problématique.Le premier modèle que nous considérons est basé sur un modèle de mosaïque aléatoire, le modèle de Jonhson-Mehl, dérivé des mosaïques de Voronoï déjà proposées en tomographie bayésienne. Contrairement à la mosaïque de Voronoï, les cellules de Johsnon-mehl ne sont pas forcément convexes et sont bornées par des portions d’hyperboloïdes, offrant ainsi des frontières lisses entre les cellules. Le deuxième modèle est, quant à lui, décrit par une combinaison linéaire de fonctions gaussiennes, centrées sur la réalisation d'un processus ponctuel de Poisson. Pour chaque modèle, nous présentons un exemple de validation sur des champs de vitesse simulés. Nous appliquons ensuite notre méthodologie à un modèle synthétique plus complexe qui sert de benchmark dans l'industrie pétrolière. Nous proposons enfin, un modèle de vitesse basé sur la théorie du compressive sensing pour reconstruire le champ de vitesse. Ce modèle, encore imparfait, ouvre plusieurs pistes de recherches futures.Dans ce travail, nous nous intéressons également à un jeu de données réelles acquises dans le contexte de la fracturation hydraulique. Nous développons dans ce contexte une méthode d'inférence bayésienne trans-dimensionnelle et hiérarchique afin de traiter efficacement la complexité du modèle à couches. / First arrival time tomography aims at inferring the seismic wave propagation velocity using experimental first arrival times. In our study, we rely on a Bayesian approach to estimate the wave velocity and the associated uncertainties. This approach incorporates the information provided by the data and the prior knowledge of the velocity model. Bayesian tomography allows for a better estimation of wave velocity as well asassociated uncertainties. However, this approach remains fairly expensive, and MCMC algorithms that are used to sample the posterior distribution are efficient only as long as the number of parameters remains within reason. Hence, their use requires a careful reflection both on the parameterization of the velocity model, in order to reduce the problem's dimension, and on the definition of the prior distribution of the parameters. In this thesis, we introduce new parsimonious parameterizations enabling to accurately reproduce the wave velocity field with the associated uncertainties.The first parametric model that we propose uses a random Johnson-Mehl tessellation, a variation of the Voronoï tessellation. The second one uses Gaussian kernels as basis functions. It is especially adapted to the detection of seismic wave velocity anomalies. Each anomaly isconsidered to be a linear combination of these basis functions localized at the realization of a Poisson point process. We first illustrate the tomography results with a synthetic velocity model, which contains two small anomalies. We then apply our methodology to a more advanced and more realistic synthetic model that serves as a benchmark in the oil industry. The tomography results reveal the ability of our algorithm to map the velocity heterogeneitieswith precision using few parameters. Finally, we propose a new parametric model based on the compressed sensing techniques. The first results are encouraging. However, the model still has some weakness related to the uncertainties estimation.In addition, we analyse real data in the context of induced microseismicity. In this context, we develop a trans-dimensional and hierarchical approach in order to deal with the full complexity of the layered model.
38

Apport de l'épidémiologie dans le choix des outils d'aide à la prise de décision sanitaire en santé animale : evaluation des tests de dépistage en santé animale / Contribution of epidemiology to the choice of diagnostic tools for sanitary decision making in animal health : Evaluation of screening tests in animal health

Praud, Anne 06 November 2012 (has links)
L’étude et le choix des stratégies décisionnelles en santé animale nécessite de disposer d’informations sur l’efficacité des outils disponibles, qu’il s’agisse d’un test unique, d’une association de plusieurs tests ou d’un ensemble de critères cliniques et épidémiologiques. La validation des tests de dépistage ou de diagnostic constitue donc un prérequis à la conception de protocoles d’aide à la prise de décisions sanitaires. Lorsqu’il existe une référence fournissant une information sur le statut infectieux des individus étudiés, l’estimation des caractéristiques des tests peut être effectuée de manière directe. En santé animale, il est toutefois fréquent de ne pas disposer de cette information, lorsqu’aucun test ne référence n’est disponible ou lorsqu’il n’a pas pu être mis en œuvre, pour des raisons pratiques, économiques ou éthiques. Dans ce cas, l’étude des tests requiert l’utilisation de méthodes statistiques adaptées, telles l’utilisation de modèles à classe latente implémentés par une approche bayésienne. Nous avons choisi, au cours de nos travaux, de nous intéresser à l’estimation de la part d’incertitude liée à l’utilisation de tests en tant qu’outils d’aide à la prise de décision. Nous exposons dans un premier chapitre les enjeux et les modalités de la lutte contre les maladies animales, les outils épidémiologiques disponibles pour l’élaboration de stratégies décisionnelles et les méthodes permettant l’évaluation de ces outils et leur comparaison. Les trois chapitres suivants constituent une application de ces méthodes, dans des contextes différents correspondant à trois types de situations dans lesquelles il existe un besoin d’aide à la décision sanitaire en santé animale : le dépistage de la brucellose porcine chez les porcs reproducteurs, le dépistage de l’épididymite contagieuse du bélier chez les béliers destinés à l’export et le dépistage de la tuberculose bovine dans les départements de Côte d’Or et de Dordogne et dans la région camarguaise. Le dernier chapitre de ce manuscrit consiste en une discussion générale sur les modalités de choix d’un outil d’aide à la décision sanitaire. / Knowing the efficacy of a diagnostic tool, whether it is a test used alone, a sequence of several tests or a group of clinical criteria, is essential to study and choose decision strategies. The validation of diagnostic and screening tests is thus necessary to conceive decision schemes. When a gold standard is available, the characteristics of a test can be estimated directly. However, the true individual disease status of the animals is often unknown, particularly in absence of a gold standard or when the gold standard cannot be used because of economical, practical or ethical constraints. In these cases, specific statistical methods like latent class models implemented through a Bayesian approach must be used. Our work aimed at estimating the uncertainty due to the use of diagnostic tests as decision tools. The first chapter presents the issues and practical details of the struggle against animal disease and the epidemiological tools available to estimate the characteristics of the tests and to compare them. In the three following chapters, these methods are applied to three different contexts in which the conception and the evaluation of decision tools are needed: the screening of porcine brucellosis in breeding hogs, the screening of Brucella ovis infection in exported rams and the screening of bovine tuberculosis in Côte d’Or, Dordogne and Camargue (France). The last chapter consists in a global discussion about how to choose a decision tool.
39

GARMA models, a new perspective using Bayesian methods and transformations / Modelos GARMA, uma nova perspectiva usando métodos Bayesianos e transformações

Andrade, Breno Silveira de 16 December 2016 (has links)
Generalized autoregressive moving average (GARMA) models are a class of models that was developed for extending the univariate Gaussian ARMA time series model to a flexible observation-driven model for non-Gaussian time series data. This work presents the GARMA model with discrete distributions and application of resampling techniques to this class of models. We also proposed The Bayesian approach on GARMA models. The TGARMA (Transformed Generalized Autoregressive Moving Average) models was proposed, using the Box-Cox power transformation. Last but not least we proposed the Bayesian approach for the TGARMA (Transformed Generalized Autoregressive Moving Average). / Modelos Autoregressivos e de médias móveis generalizados (GARMA) são uma classe de modelos que foi desenvolvida para extender os conhecidos modelos ARMA com distribuição Gaussiana para um cenário de series temporais não Gaussianas. Este trabalho apresenta os modelos GARMA aplicados a distribuições discretas, e alguns métodos de reamostragem aplicados neste contexto. É proposto neste trabalho uma abordagem Bayesiana para os modelos GARMA. O trabalho da continuidade apresentando os modelos GARMA transformados, utilizando a transformação de Box-Cox. E por último porém não menos importante uma abordagem Bayesiana para os modelos GARMA transformados.
40

GARMA models, a new perspective using Bayesian methods and transformations

Andrade, Breno Silveira de 16 December 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-08-03T20:04:27Z No. of bitstreams: 1 TeseBSA.pdf: 10322083 bytes, checksum: 4c30c490934f23dbad9d5a1f087ef182 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-08T19:09:23Z (GMT) No. of bitstreams: 1 TeseBSA.pdf: 10322083 bytes, checksum: 4c30c490934f23dbad9d5a1f087ef182 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-08T19:09:30Z (GMT) No. of bitstreams: 1 TeseBSA.pdf: 10322083 bytes, checksum: 4c30c490934f23dbad9d5a1f087ef182 (MD5) / Made available in DSpace on 2017-08-08T19:15:39Z (GMT). No. of bitstreams: 1 TeseBSA.pdf: 10322083 bytes, checksum: 4c30c490934f23dbad9d5a1f087ef182 (MD5) Previous issue date: 2016-12-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Generalized autoregressive moving average (GARMA) models are a class of models that was developed for extending the univariate Gaussian ARMA time series model to a flexible observation-driven model for non-Gaussian time series data. This work presents the GARMA model with discrete distributions and application of resampling techniques to this class of models. We also proposed The Bayesian approach on GARMA models. The TGARMA (Transformed Generalized Autoregressive Moving Average) models was proposed, using the Box-Cox power transformation. Last but not least we proposed the Bayesian approach for the TGARMA (Transformed Generalized Autoregressive Moving Average). / Modelos Autoregressivos e de médias móveis generalizados (GARMA) são uma classe de modelos que foi desenvolvida para extender os conhecidos modelos ARMA com distribuição Gaussiana para um cenário de series temporais não Gaussianas. Este trabalho apresenta os modelos GARMA aplicados a distribuições discretas, e alguns métodos de reamostragem aplicados neste contexto. É proposto neste trabalho uma abordagem Bayesiana para os modelos GARMA. O trabalho da continuidade apresentando os modelos GARMA transformados, utilizando a transformação de Box-Cox. E por último porém não menos importante uma abordagem Bayesiana para os modelos GARMA transformados.

Page generated in 0.0398 seconds