• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 42
  • 31
  • 20
  • 19
  • 14
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 393
  • 393
  • 292
  • 64
  • 46
  • 46
  • 45
  • 42
  • 40
  • 36
  • 36
  • 34
  • 34
  • 34
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

A Markovian Approach to Financial Market Forecasting / En Markovisk ansats för finansiell marknadsprognostisering

Sun Wang, Kevin, Borin, William January 2023 (has links)
This thesis aims to investigate the feasibility of using a Markovian approach toforecast short-term stock market movements. To assist traders in making soundtrading decisions, this study proposes a Markovian model using a selection ofthe latest closing prices. Assuming that each time step in the one-minute timeframe of the stock market is stochastically independent, the model eliminates theimpact of fundamental analysis and creates a feasible Markov model. The modeltreats the stock price’s movement as entirely randomly generated, which allowsfor a more simplified model that can be implemented with ease. The modelis intended to serve as a starting ground for more advanced technical tradingstrategies and act as useful guidance for a short-term trader when combinedwith other resources. The creation of the model involves Laplace smoothing toensure there are no zero-probabilities and calculating the steady-state probabilityvector of the smoothed matrix to determine the predicted direction of the nexttime step. The model will reset daily, reducing the impact of fundamental factorsoccurring outside trading hours and reducing the risk of carrying over bias fromprevious trading day. Any open positions will hence be closed at the end of theday. The study’s purpose is to research and test if a simple forecasting modelbased on Markov chains can serve as a useful tool for forecasting stock prices atshort time intervals. The result of the study shows that a Markov-based tradingstrategy is more profitable than a simple buy-and-hold strategy and that theprediction accuracy of the Markov model is relatively high. / Denna avhandling syftar till att undersöka möjligheten att använda en markoviskmetod för att förutsäga kortsiktiga rörelser på aktiemarknaden. För att hjälpaaktörer på aktiemarknaden att fatta välgrundade handelsbeslut föreslår dennastudie en markovisk modell för att förutsäga nästa stängningspris baserat påde senaste stängningspriserna. Modellen antar att varje tidssteg i ett en-minuts intervall på aktiemarknaden är stokastiskt oberoende, vilket eliminerarpåverkan från fundamental analys och skapar förutsättningen för en genomförbarmarkov-modell. Modellen behandlar aktieprisets rörelse som helt slumpmässigtgenererat, vilket möjliggör en mer förenklad modell som kan implementeraspå marknaden. Modellen är avsedd att tjäna som en utgångspunkt förmer avancerade tekniska handelsalgoritmer och fungera som en användbarvägledning för en akitehandlare med kort tidshorisont i kombination med andraresurser. Skapandet av modellen inkluderar använding av Laplace-jämning föratt säkerställa att det inte finns nollsannolikheter samt beräknandet av denstationära sannolikhetsvektorn för den jämnade matrisen i syfte att bestämmaden förutsedda riktningen för nästa tidssteg. Modellen kommer att återställasdagligen, vilket minskar påverkan från de fundamentala faktorer som inträffarutanför handelstiderna och ser till att bias inte överförs till nästa börsdag. Dettainnebär att alla öppna positioner stängs vid dagens slut. Studiens syfte är attforska och testa om en enkel prognosmodell baserad på Markovkedjor kan varaanvändbar som ett verktyg för att förutsäga aktiepriser vid korta tidsintervall.Resultatet från studien visar på att en markov-baserad trading strategi är merlönsam än en enkel köp-och-behåll strategi och att prediktionernas träffsäkerhetfrån en markov modell är relativt höga.
362

Pitch tracking and speech enhancement in noisy and reverberant environments

Wu, Mingyang 07 November 2003 (has links)
No description available.
363

Site-Specific Point Positioning and GPS Code Multipath Parameterization and Prediction

EDWARDS, KARLA ROBERTA LISA 25 October 2011 (has links)
No description available.
364

Cost Analysis of Levodopa Micro Tablet Dispenser for Treatment of Parkinson's Disease / Kostnadsanalys av en dispenser för levodopa-mikrotabletter för behandling av Parkinsons sjukdom

Larsson, Alexander, Söderbärg, Anna January 2023 (has links)
Parkinson's is a chronic, progressive, neurodegenerative disease. The most common treatment is levodopa/carbidopa, which suppresses the symptoms of the disease. In this report, a cost-utility analysis of the MyFID levodopa/carbidopa micro tablet dispenser has been conducted. The method used was a continuous-time Markov chain with states based on the score in MDS-UPDRS II and MDS-UPDRS III. The model was simulated over a time horizon of five years and was started at different disease severity levels. The results obtained from the simulations were a dominant ICER for all model versions except when the simulation was started in the earliest stages of the disease, where it was moderate to high. The conclusion was that the treatment method with the micro / Parkinsons är en kronisk, progressiv, neurodegenerativ sjukdom. Den vanligaste behandlingen är levodopa/carbidopa, som undertrycker symptomen av sjukdomen. I denna rapport har en kostnadsnyttoanalys av MyFID levodopa/ carbidopa-mikrotablettdispensern genomförts. Metoden som användes var en kontinuerlig Markovkedja med tillstånd baserade på poängen i MDS-UPDRS II och MDS-UPDRS III. Modellen simulerades över en tidsperiod av fem år och startades vid olika svårighetsgrader av sjukdomen. Resultaten som erhölls från simuleringarna visade en dominerande ICER för alla modellversioner förutom när simuleringen startades i de tidigaste stadierna av sjukdomen, där den visade en måttligt till hög kostnad. Slutsatsen var att behandlingen med hjälp av mikrotablettdispensern var kostnadseffektiv i de måttliga till senare stadierna av sjukdomen.
365

Software architecture for capturing clinical information in hadron therapy and the design of an ion beam for radiobiology

Abler, Daniel Jakob Silvester January 2013 (has links)
Hadron Therapy (HT) exploits properties of ion radiation to gain therapeutic advantages over existing photon-based forms of external radiation therapy. However, its relative superiority and cost-effectiveness have not been proven for all clinical situations. Establishing a robust evidence base for the development of best treatment practices is one of the major challenges for the field. This thesis investigates two research infrastructures for building this essential evidence. First, the thesis develops main components of a metadata-driven software architecture for the collection of clinical information and its analysis. This architecture acknowledges the diversity in the domain and supports data interoperability by sharing information models. Their compliance to common metamodels guarantees that primary data and analysis results can be interpreted outside of the immediate production context. This is a fundamental necessity for all aspects of the evidence creation process. A metamodel of data capture forms is developed with unique properties to support data collection and documentation in this architecture. The architecture's potential to support complex analysis processes is demonstrated with the help of a novel metamodel for Markov model based simulations, as used for the synthesis of evidence in health-economic assessments. The application of both metamodels is illustrated on the example of HT. Since the biological effect of particle radiation is a major source of uncertainty in HT, in its second part, this thesis undertakes first investigations towards a new research facility for bio-medical experiments with ion beams. It examines the feasibility of upgrading LEIR, an existing accelerator at the European Organisation for Nuclear Research (CERN), with a new slow extraction and investigates transport of the extracted beam to future experiments. Possible configurations for the slow-resonant extraction process are identified, and designs for horizontal and vertical beam transport lines developed. The results of these studies indicate future research directions towards a new ion beam facility for biomedical research.
366

Intégration des mesures intermédiaires de survie dans les évaluations économiques en cancer du sein métastatique

Beauchemin, Catherine 04 1900 (has links)
De nos jours, il est de plus en plus fréquent de recourir à des mesures intermédiaires d’efficacité telles que la survie sans progression (SSP) et le temps avant la progression de la tumeur (TPT) afin d’estimer l’efficacité d’un nouvel agent anticancéreux. Cependant, l’absence de mesures finales comme la survie globale (SG) complexifie la prise de décision par rapport au remboursement des nouveaux traitements anticancéreux. Ainsi, cette thèse se concentre sur différents aspects de l’intégration des mesures intermédiaires d’efficacité dans les évaluations économiques en oncologie, spécifiquement en cancer du sein métastatique. Une première étude a évalué la relation entre la SSP/TPT et la SG dans le contexte du cancer du sein métastatique. Une revue systématique de la littérature a identifié les études cliniques randomisées portant sur l’efficacité d’un traitement anticancéreux chez les femmes atteintes d’un cancer du sein métastatique et rapportant des données de SSP/TPT et de SG. Les résultats de cette étude ont démontré qu’il existe une relation statistiquement significative, d’une part, entre la SSP/TPT médiane et la SG médiane (r = 0.428; p ≤ 0,01), et d’autre part, entre l’effet de traitement sur la SSP/TPT et l’effet de traitement sur la SG (r = 0.427; p ≤ 0,01). Selon les résultats obtenus, la SSP/TPT pourrait être considérée comme un substitut valide de la SG, justifiant ainsi son utilisation dans les évaluations économiques en cancer du sein métastatique. Une deuxième étude a évalué l’utilisation des mesures intermédiaires de survie dans les évaluations économiques en cancer avancé et identifié les méthodes utilisées pour intégrer ces mesures en l’absence de données de SG. Une revue systématique de la littérature a été réalisée pour recenser les évaluations économiques de type coût-efficacité et coût-utilité ayant intégré des mesures intermédiaires de survie. Cette étude a démontré l’ampleur de l’utilisation des mesures intermédiaires de survie dans les évaluations économiques en cancer avancé. Par ailleurs, plusieurs approches ont été identifiées pour pallier l’absence de données de SG, notamment l’utilisation d’un risque de décès post-progression équivalent pour les groupes à l’étude, le recours à des comparaisons indirectes basées sur de nombreuses hypothèses, l’utilisation d’une mesure intermédiaire comme proxy de la SG, le recours à l’opinion d’experts et l’utilisation de données associées à un traitement différent ou une ligne de traitement différente. Enfin, une troisième étude s’est penchée sur le développement d’un modèle pharmacoéconomique générique canadien intégrant les mesures intermédiaires de survie en cancer du sein métastatique. Ce modèle de Markov inclut des paramètres spécifiques aux traitements sous évaluations (coût de traitement, données de survie et incidence des effets indésirables) de même que des paramètres globaux qui ne dépendent pas des traitements évalués (caractéristiques des patientes, valeurs d’utilité associées aux états de santé du modèle, pertes d’utilité et coûts des effets indésirables, coûts d’administration des traitements, coûts de suivi médical et coûts des soins prodigués en fin de vie). Le modèle a été validé en évaluant sa capacité à répliquer des résultats d’études existantes. Ce modèle permet d’uniformiser l’évaluation économique des nouveaux traitements en cancer du sein métastatique et pourrait par conséquent, devenir un outil d’aide à la décision de référence pour les organismes responsables du remboursement des médicaments au Canada. Bref, les résultats de ces trois études répondent à une problématique importante dans l’évaluation économique des traitements en oncologie et pourront contribuer à faciliter la prise de décision en santé. / Nowadays, intermediate endpoints such as progression-free survival (PFS) and time to progression (TTP) are frequently used in clinical trials of advanced cancer. However, use of such endpoints instead of overall survival (OS) poses a significant challenge in the economic evaluation of anticancer drugs. This thesis focuses on different aspects of the integration of intermediate endpoints in the economic evaluation of anticancer drugs, especially in the context of metastatic breast cancer. A first study assessed the relationship between PFS/TPT and OS in metastatic breast cancer using a trial-based approach. A systematic review of the literature was performed to identify randomized clinical trials of metastatic breast cancer therapy reporting both PFS/TTP and OS data. Results of this study indicated a statistically significant relationship between the median PFS/TTP and the median OS (r = 0.428; p < 0.01), and between the treatment effect on PFS/TTP and the treatment effect on OS (r = 0.427; p < 0.01). Findings of this study suggest that PFS/TTP may be considered as a potential surrogate for OS, thus justifying its use in cost-effectiveness or cost-utility analyses of metastatic breast cancer therapy. A second study evaluated the use of intermediate endpoints in the economic evaluation of new treatments for advanced cancer and the methodological approaches adopted when OS data are unavailable or of limited use. A systematic review of the literature was conducted to identify cost-effectiveness and cost-utility analyses using an intermediate endpoint as an outcome measure. This study showed that intermediate endpoints are widely used in the economic evaluation of new treatments for advanced cancer. Several approaches are used in the absence of OS data such as assuming an equal risk of death for all treatment groups, using indirect comparison based on numerous assumptions, using of a proxy for OS, using unpublished external information (consultation with clinical experts), and using published external information from different treatment settings. Finally, a third study aimed to develop a global economic model to assess the cost-effectiveness of new treatments for metastatic breast cancer in Canada. This Markov model, which integrates intermediate endpoints, includes parameters specific to the treatments under evaluation (drug treatment, survival outcomes, and incidence of treatment-related adverse events (AEs)), as well as global parameters that are consistent regardless of the treatment under evaluation (patient characteristics, health states utilities, disutilities and costs associated with treatment-related AEs, as well as costs associated with drug administration, medical follow-up, and end-of-life care). The model was validated by assessing its ability to replicate results of existing studies. This model standardizes the economic evaluation of new therapies for metastatic breast cancer, and could thus be used as a benchmark by drug reimbursement authorities in Canada. In summary, the results of these three studies address an important challenge encountered in the economic evaluation of anticancer drugs, and therefore, can be very valuable for decision-making purposes.
367

Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie

Dragomir, Elena Alice 09 1900 (has links)
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale. / Aim: Pharmacological strategies for schizophrenia have received increasing attention due to the development of new therapies more effective, better tolerated but more expensive. Schizophrenia is a chronic illness with various states of illness. Objectives: This research program aimed: 1) to evaluate the factors associated with the risk of being in a specific state of schizophrenia in order to construct the risk functions of the course of schizophrenia modeling; 2) to develop and validate a Markov model with Monte-Carlo micro-simulations in order to simulate the natural course of patients who have been newly diagnosed with schizophrenic based upon the individual risk factors profile; and 3) to estimate the direct healthcare and non-healthcare cost of schizophrenia and to simulate clinical and economic impact of developing a new treatment, in a cohort of patients newly diagnosed with schizophrenia, over the first 5 years following their diagnosis. Methods: For the first objective of this research program, a total of 14,320 newly diagnosed patients with schizophrenia were identified based on data from the RAMQ and Med-Echo databases. Six disorder states of schizophrenia were defined: first episode (FE), low dependency state (LDS), high dependency state (HDS), Stable state (Stable), Well state (Well) and Death state (Death). To evaluate factors associated to the risk of being in each disease state, we constructed 4 risk functions based on the Cox proportional hazard analysis for competing risks. For the second objective, a Markov model with Monte-Carlo microsimulations with the six specific states of schizophrenia was developed and validated. In the model, each subject had his own probabilities of transition between specific states, which were estimated based on the cumulative incidence function. For the third objected, we used the Markov model we previously developed. The model includes direct healthcare costs estimated from the Régie de l’assurance maladie du Québec and Med-Echo databases and direct non-healthcare costs estimated from the surveys and publications of Statistics Canada. Results: A total of 14,320 individuals were identified in the study cohort as newly diagnosed patients with schizophrenia. The mean follow-up of the subjects was of 4.4 (± 2.6) years. The age, the sex, the schizophrenia treatment, and having comorbidities are factors that are associated with the schizophrenia course. After a five-year period, our results show that 41% of patients will be considered as having recovered, 13% will be in stable condition and 3.4% of patients will have died. The mean direct healthcare and non-healthcare cost of schizophrenia over the first 5 years following diagnosis was estimated $36,701 Canadian (CAN) (95% CI: 36,264 to 37,138). The direct healthcare cost accounted for 56.2% of the total cost, welfare assistance for 34.6% and long term care facilities for 9.2%. On the direct healthcare cost, hospitalisation cost accounted for 64.6%, medical cost for 11.4% and drug-related cost for 24%. In the case where a new treatment with 20% increase of effectiveness will be available, the direct healthcare and non-healthcare costs can be reduced up to 14.2%. Conclusion: We have identified factors associated with the schizophrenia’s specific states, The Markov model we have developed is the first Canadian model incorporating transition probabilities adjusted for individual risk factor profiles using real-life data. The model shows a good internal and external validity. Based on the cost estimates, our results indicate that a new treatment could possibly reduce hospitalization and long-term care facility costs while potentially enabling patients to return to active employment that would in turn contribute to the reduction of the welfare assistance cost.
368

Modèles aléatoires harmoniques pour les signaux électroencéphalographiques

Villaron, Emilie 25 June 2012 (has links)
Cette thèse s'inscrit dans le contexte de l'analyse des signaux biomédicaux multicapteurs par des méthodes stochastiques. Les signaux auxquels nous nous intéressons présentent un caractère oscillant transitoire bien représenté par les décompositions dans le plan temps-fréquence c'est pourquoi nous avons choisi de considérer non plus les décours temporels de ces signaux mais les coefficients issus de la décomposition de ces derniers dans le plan temps-fréquence. Dans une première partie, nous décomposons les signaux multicapteurs sur une base de cosinus locaux (appelée base MDCT) et nous modélisons les coefficients à l'aide d'un modèle à états latents. Les coefficients sont considérés comme les réalisations de processus aléatoires gaussiens multivariés dont la distribution est gouvernée par une chaîne de Markov cachée. Nous présentons les algorithmes classiques liés à l'utilisation des modèles de Markov caché et nous proposons une extension dans le cas où les matrices de covariance sont factorisées sous forme d'un produit de Kronecker. Cette modélisation permet de diminuer la complexité des méthodes de calcul numérique utilisées tout en stabilisant les algorithmes associés. Nous appliquons ces modèles à des données électroencéphalographiques et nous montrons que les matrices de covariance représentant les corrélations entre les capteurs et les fréquences apportent des informations pertinentes sur les signaux analysés. Ceci est notamment illustré par un cas d'étude sur la caractérisation de la désynchronisation des ondes alpha dans le contexte de la sclérose en plaques. / This thesis adresses the problem of multichannel biomedical signals analysis using stochastic methods. EEG signals exhibit specific features that are both time and frequency localized, which motivates the use of time-frequency signal representations. In this document the (time-frequency labelled) coefficients are modelled as multivariate random variables. In the first part of this work, multichannel signals are expanded using a local cosine basis (called MDCT basis). The approach we propose models the distribution of time-frequency coefficients (here MDCT coefficients) in terms of latent variables by the use of a hidden Markov model. In the framework of application to EEG signals, the latent variables describe some hidden mental state of the subject. The latter control the covariance matrices of Gaussian vectors of fixed-time vectors of multi-channel, multi-frequency, MDCT coefficients. After presenting classical algorithms to estimate the parameters, we define a new model in which the (space-frequency) covariance matrices are expanded as tensor products (also named Kronecker products) of frequency and channels matrices. Inference for the proposed model is developped and yields estimates for the model parameters, together with maximum likelihood estimates for the sequences of latent variables. The model is applied to electroencephalogram data, and it is shown that variance-covariance matrices labelled by sensor and frequency indices can yield relevant informations on the analyzed signals. This is illustrated with a case study, namely the detection of alpha waves in rest EEG for multiple sclerosis patients and control subjects.
369

Inverse problems occurring in uncertainty analysis / Inversion probabiliste bayésienne en analyse d'incertitude

Fu, Shuai 14 December 2012 (has links)
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X à partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts en particulier lorsque peu de données sont disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (métamodèle). Cette approche implique plusieurs erreurs de natures différentes et, dans ce travail,nous nous attachons à estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi apriori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté à notre objectif particulier dans le cadre bayésien. La méthodologie principale présentée dans ce travail a été appliquée à un cas d'étude en ingénierie hydraulique. / This thesis provides a probabilistic solution to inverse problems through Bayesian techniques.The inverse problem considered here is to estimate the distribution of a non-observed random variable X from some noisy observed data Y explained by a time-consuming physical model H. In general, such inverse problems are encountered when treating uncertainty in industrial applications. Bayesian inference is favored as it accounts for prior expert knowledge on Xin a small sample size setting. A Metropolis-Hastings-within-Gibbs algorithm is proposed to compute the posterior distribution of the parameters of X through a data augmentation process. Since it requires a high number of calls to the expensive function H, the modelis replaced by a kriging meta-model. This approach involves several errors of different natures and we focus on measuring and reducing the possible impact of those errors. A DAC criterion has been proposed to assess the relevance of the numerical design of experiments and the prior assumption, taking into account the observed data. Another contribution is the construction of adaptive designs of experiments adapted to our particular purpose in the Bayesian framework. The main methodology presented in this thesis has been applied to areal hydraulic engineering case-study.
370

Métodos geoestatísticos de co-estimativas: estudo do efeito da correlação entre variáveis na precisão dos resultados / Co-estimation geostatistical methods: a study of the correlation between variables at results precision

Watanabe, Jorge 29 February 2008 (has links)
Esta dissertação de mestrado apresenta os resultados de uma investigação sobre os métodos de co-estimativa comumente utilizados em geoestatística. Estes métodos são: cokrigagem ordinária; cokrigagem colocalizada e krigagem com deriva externa. Além disso, a krigagem ordinária foi considerada apenas a título de ilustração como esse método trabalha quando a variável primária estiver pobremente amostrada. Como sabemos, os métodos de co-estimativa dependem de uma variável secundária amostrada sobre o domínio a ser estimado. Adicionalmente, esta variável deveria apresentar correlação linear com a variável principal ou variável primária. Geralmente, a variável primária é pobremente amostrada enquanto a variável secundária é conhecida sobre todo o domínio a ser estimado. Por exemplo, em exploração petrolífera, a variável primária é a porosidade medida em amostras de rocha retiradas de testemunhos e a variável secundária é a amplitude sísmica derivada de processamento de dados de reflexão sísmica. É importante mencionar que a variável primária e a variável secundária devem apresentar algum grau de correlação. Contudo, nós não sabemos como eles funcionam dependendo do grau de correlação. Esta é a questão. Assim, testamos os métodos de co-estimativa para vários conjuntos de dados apresentando diferentes graus de correlação. Na verdade, esses conjuntos de dados foram gerados em computador baseado em algoritmos de transformação de dados. Cinco valores de correlação foram considerados neste estudo: 0,993, 0,870, 0,752, 0,588 e 0,461. A cokrigagem colocalizada foi o melhor método entre todos testados. Este método tem um filtro interno que é aplicado no cálculo do peso da variável secundária, que por sua vez depende do coeficiente de correlação. De fato, quanto maior o coeficiente de correlação, maior é o peso da variável secundária. Então isso significa que este método funciona mesmo quando o coeficiente de correlação entre a variável primária e a variável secundária é baixo. Este é o resultado mais impressionante desta pesquisa. / This master dissertation presents the results of a survey into co-estimation methods commonly used in geostatistics. These methods are ordinary cokriging, collocated cokriging and kriging with an external drift. Besides that ordinary kriging was considered just to illustrate how it does work when the primary variable is poorly sampled. As we know co-estimation methods depend on a secondary variable sampled over the estimation domain. Moreover, this secondary variable should present linear correlation with the main variable or primary variable. Usually the primary variable is poorly sampled whereas the secondary variable is known over the estimation domain. For instance in oil exploration the primary variable is porosity as measured on rock samples gathered from drill holes and the secondary variable is seismic amplitude derived from processing seismic reflection data. It is important to mention that primary and secondary variables must present some degree of correlation. However, we do not know how they work depending on the correlation coefficient. That is the question. Thus, we have tested co-estimation methods for several data sets presenting different degrees of correlation. Actually, these data sets were generated in computer based on some data transform algorithms. Five correlation values have been considered in this study: 0.993; 0.870; 0.752; 0.588 and 0.461. Collocated simple cokriging was the best method among all tested. This method has an internal filter applied to compute the weight for the secondary variable, which in its turn depends on the correlation coefficient. In fact, the greater the correlation coefficient the greater the weight of secondary variable is. Then it means this method works even when the correlation coefficient between primary and secondary variables is low. This is the most impressive result that came out from this research.

Page generated in 0.0433 seconds