Spelling suggestions: "subject:"bayesian data analysis"" "subject:"eayesian data analysis""
1 |
Bayesian Data Analysis For The Sovenian PlebiscitePadhy, Budhinath 28 April 2011 (has links)
Slovenia became an independent republic with its own constitution passed on December 23, 1991. The important step that led to the independence of Slovenia was the December 1990 plebiscite. It was at this plebiscite that the citizens of Slovenia voted for a sovereign and independent state. A public survey called Slovenian Public Opinion (SPO) survey was taken by the government of Slovenia for the plebiscite. The plebiscite counted `YES voters' only those voters who attended and who voted for independence. Non-voters were counted as `NO voters' and `Don't Know' survey responses that could be thought of as missing data that was treated as `YES' or `NO'. Analysis of survey data is done using non-parametric fitting procedure, Bayesian ignorable nonresponse model and Bayesian nonignorable nonresponse model. Finally, a sensitivity analysis is conducted with respect to the different values of a prior parameter. The amazing estimates of the eventual plebiscite outcome show the validity our underlying models.
|
2 |
An Introduction to Bayesian Methodology via WinBUGS and PROC MCMCLindsey, Heidi Lula 06 July 2011 (has links) (PDF)
Bayesian statistical methods have long been computationally out of reach because the analysis often requires integration of high-dimensional functions. Recent advancements in computational tools to apply Markov Chain Monte Carlo (MCMC) methods are making Bayesian data analysis accessible for all statisticians. Two such computer tools are Win-BUGS and SASR 9.2's PROC MCMC. Bayesian methodology will be introduced through discussion of fourteen statistical examples with code and computer output to demonstrate the power of these computational tools in a wide variety of settings.
|
3 |
The Relationship between Sleep Intraindividual Variability and Cognition among Healthy Young AdultsAnderson, Jason R. 10 April 2018 (has links)
No description available.
|
4 |
A surveillance modeling and ecological analysis of urban residential crimes in Columbus, Ohio, using Bayesian Hierarchical data analysis and new space-time surveillance methodologyKim, Youngho 23 August 2007 (has links)
No description available.
|
5 |
HEALTHCARE PREDICTIVE ANALYTICS FOR RISK PROFILING IN CHRONIC CARE: A BAYESIAN MULTITASK LEARNING APPROACHLin, Yu-Kai, Chen, Hsinchun, Brown, Randall A., Li, Shu-Hsing, Yang, Hung-Jen 06 1900 (has links)
Clinical intelligence about a patient's risk of future adverse health events can support clinical decision making in personalized and preventive care. Healthcare predictive analytics using electronic health records offers a promising direction to address the challenging tasks of risk profiling. Patients with chronic diseases often face risks of not just one, but an array of adverse health events. However, existing risk models typically focus on one specific event and do not predict multiple outcomes. To attain enhanced risk profiling, we adopt the design science paradigm and propose a principled approach called Bayesian multitask learning (BMTL). Considering the model development for an event as a single task, our BMTL approach is to coordinate a set of baseline models-one for each event-and communicate training information across the models. The BMTL approach allows healthcare providers to achieve multifaceted risk profiling and model an arbitrary number of events simultaneously. Our experimental evaluations demonstrate that the BMTL approach attains an improved predictive performance when compared with the alternatives that model multiple events separately. We also find that, in most cases, the BMTL approach significantly outperforms existing multitask learning techniques. More importantly, our analysis shows that the BMTL approach can create significant potential impacts on clinical practice in reducing the failures and delays in preventive interventions. We discuss several implications of this study for health IT, big data and predictive analytics, and design science research.
|
6 |
Framing structural equation models as Bayesian non-linear multilevel regression modelsUanhoro, James Ohisei January 2021 (has links)
No description available.
|
7 |
A Topics Analysis Model for Health Insurance ClaimsWebb, Jared Anthony 18 October 2013 (has links) (PDF)
Mathematical probability has a rich theory and powerful applications. Of particular note is the Markov chain Monte Carlo (MCMC) method for sampling from high dimensional distributions that may not admit a naive analysis. We develop the theory of the MCMC method from first principles and prove its relevance. We also define a Bayesian hierarchical model for generating data. By understanding how data are generated we may infer hidden structure about these models. We use a specific MCMC method called a Gibbs' sampler to discover topic distributions in a hierarchical Bayesian model called Topics Over Time. We propose an innovative use of this model to discover disease and treatment topics in a corpus of health insurance claims data. By representing individuals as mixtures of topics, we are able to consider their future costs on an individual level rather than as part of a large collective.
|
8 |
Impedanzspektroskopie an Zellschichten: Bayes’sche Datenanalyse und Modellvergleiche von experimentellen Messungen zur Charakterisierung der endothelialen SchrankenfunktionZimmermann, Franziska 09 July 2024 (has links)
Das Endothel stellt die entscheidende Barriere zwischen dem Intra- und Extravasalraum dar und ist damit essentiell für physiologische und pathophysiologische Vorgänge wie die Selektivität der Blut-Hirn-Schranke oder die Bildung von Ödemen. Die maßgebliche Kenngröße zur Beschreibung der Durchlässigkeit dieser Barriere ist die Permeabilität. Eine Methode zur Quantifizierung der endothelialen Schrankenfunktion ist die Impedanzspektroskopie. Hierbei wird an einem isolierten Zellmonolayer, der auf einen Filter kultiviert wurde, eine Wechselspannung angelegt und der resultierende komplexe Widerstand – die Impedanz Z(f) – für verschiedene Messfrequenzen f bestimmt. Kenngrößen sind der frequenzabhängige Verlauf von Betrag |Z| und Phase Ph der komplexen Impedanz. Zur Charakterisierung dieser Zellschicht wird oft der Transendotheliale Widerstand TER verwendet. Die Bestimmung dieses Wertes erfolgt über das Aufstellen von physikalischen Ersatzschaltbildern als mathematisches Modell, das den Messaufbau möglichst gut beschreibt und anschließender Optimierung der Modellparameter, sodass ein bestmöglicher Fit zwischen den Modellwerten und den Messdaten resultiert. Kommerziell verfügbare Impedanzmessgeräte ermöglichen die experimentell einfache Bestimmung von |Z| und Ph sowie oft eine direkte Analyse dieser Messwerte mittels voreingestellter mathematischer Modelle. Diese sind allerdings nicht erweiterbar oder austauschbar. Die resultierenden Parameter werden mitunter ohne Fehler angegeben, dieser soll dann über Mehrfachmessungen bestimmt werden. Zudem ist kein quantitativer Modellvergleich möglich. Diese Arbeit hatte daher das Ziel, die Vorteile der praktischen experimentellen Anwendung eines kommerziellen Messgerätes zu nutzen, aber die Analyse der Messdaten in den genannten Punkten zu erweitern und zu verbessern. Hierfür wurden beruhend auf der Bayes’schen Datenanalyse zwei verschiedene Algorithmen in python zur Auswertung impedanzspektroskopischer Daten implementiert. Bei der Bayes’schen Datenanalyse handelt es sich um einen logisch konsistenten Weg der Parameterbestimmung für eine bestimmte Modellannahme unter Berücksichtigung der gegebenen Daten und deren Fehler. Es resultieren als Ergebnis die Posterior als Wahrscheinlichkeitsverteilungen der Parameter. Aus diesen können Mittelwerte und Standardabweichungen berechnet werden. Vorwissen über die Modellparameter kann in Prioren für die Auswertung einbezogen werden. Bei der Analyse können im Gegensatz zu den kommerziellen Geräten sowohl |Z| als auch Ph berücksichtigt werden. Außerdem ermöglicht die Bestimmung der Evidenz einen quantitativen Modellvergleich, sodass valide Aussagen getroffen werden können, welches der untersuchten Modelle die gemessenen Daten am besten beschreibt. Die experimentellen Messungen wurden mit dem CellZscope (nanoAnalytics, Münster) durchgeführt. Dieses ermöglicht Messungen in einem Frequenzbereich von 1 - 100 kHz von auf Filtern kultivierten Zellmonolayern in sogenannten Wells auch unter Zugabe von Stimulatoren. Bei den zwei implementierten Algorithmen handelt es sich um das Markov-Chain-Monte-Carlo (MCMC) - Verfahren und um das MultiNested (MN) - Sampling. Das MCMC-Verfahren wurde vollständig selbstständig umgesetzt, der MN-Algorithmus beruht auf einer frei zugänglichen Bibliothek und wurde entsprechend angepasst. Diese zwei Algorithmen wurden zunächst ausführlich mit selbstgenerierten Testdaten validiert. Beide lieferten nahezu identische Ergebnisse der Parameterschätzung in hervorragender Übereinstimmung mit den gewählten Simulationsparametern. Die Einbeziehung der Ph verbesserte diese weiter und führte zusätzlich zu geringeren Parameterunsicherheiten. Als weitere Verbesserung wurde außerdem ein Verfahren zum Abschätzen der Messungenauigkeiten und deren Korrelationen aus den Messdaten etabliert, da diese bei dem CellZscope nicht angegeben werden. Für den MN-Algorithmus konnte der Jeffreys-Prior implementiert werden. Dies ermöglichte auch die korrekte Analyse mathematisch komplexer, höherparametriger Modelle.
Nach dieser ausführlichen Validierung der Algorithmen hinsichtlich der Parameterschätzung, der Bestimmung der Messunsicherheiten und des Modellvergleiches erfolgte die Anwendung auf experimentelle Messungen. Bei diesen wurden Endothelzellen der menschlichen Nabelschnurvene (HUVEC) mit Thrombin in verschiedenen Konzentrationen und Triton X-100 stimuliert. Thrombin führt bei Endothelzellen u.a. zu Zellretraktion und Ausbildung ontrazellulärer Gaps mit Steigerung der Makromolekülpermeabilität. Triton X-100, ein nicht-ionisches Detergenz, zerstört die Lipidschicht der Zellmembranen. Vergleichend wurden zu den Messungen an Wells mit Medium und zellbedecktem Filter auch Messungen an Wells nur mit Medium sowie mit Medium und zellfreiem Filter durchgeführt. Es wurden basierend auf einer ausführlichen Literaturrecherche verschiedene Modelle untersucht, deren gemeinsames Merkmal ein konstantes Phasenelement (CPE) für die Elektroden-Elektrolyt-Grenzfläche und eine Reihenschaltung mehrerer RC-Glieder (Parallelschaltung eines Widerstandes R und eines Kondensators C) ist. Als das geeignetste Modell resultierte für alle diese drei Konditionen eine Reihenschaltung eines CPE mit mehreren RC-Gliedern, aber ohne weitere Elemente. Für die Wells mit nur Medium und die mit zellbedecktem Filter wurde die Anzahl nRC der RC-Glieder mit jeweils nRC = 4, für die Wells mit zellfreiem Filter mit nRC = 3 bestimmt. Dies zeigte, dass die in der Literatur oft verwendete Beschreibung des Mediums mit einem ohmschen Widerstand unzureichend ist. Auffallend war, dass bei allen Konditionen ein RC-Glied eine sehr niedrige Kapazität in der Größenordnung einiger nF aufwies. Für den Filter resultierte ein in der Kapazität charakteristisches RC-Glied, dennoch ergaben sich insgesamt weniger RC-Glieder als für die Messungen nur mit Medium. Bei den Messungen mit zellbedecktem Filter konnte der aus der Literatur bekannte konzentrationsabhängige Anstieg des TER dargestellt werden. Der Modellvergleich legte nahe, dass die Integrität des Zellmonolayers bei hohen Thrombinkonzentrationen nicht vollständig zerstört wird, da weiterhin ein Modell, das auch ein zellspezifisches RC-Glied enthält, die höchste Modellwahrscheinlichkeit aufwies. Für die Stimulation mit Triton X-100 ergab sich dagegen eine höhere Wahrscheinlichkeit für ein Modell, das einen Filter ohne Zellschicht beschreibt. Somit scheint hier der Monolayer nicht mehr intakt zu sein. Zur genaueren Untersuchung der biophysikalischen Bedeutung einzelner Modellparameter wurden außerdem erste zellfreie Messungen an Wells mit deionisiertem Wasser und Natriumchloridlösungen unterschiedlicher Konzentration durchgeführt und mit Berechnungen aus der Literatur verglichen. Hierbei konnte die bei allen Wells bestimmte sehr niedrige Kapazität auf den Aufbau des Wells zurückgeführt werden. Für die anderen RC-Glieder des Mediums und des Filters ergaben sich Hinweise, dass diese auf der Ausbildung dünner ionischer Schichten beruhen. Zusammenfassend haben sich die implementierten Algorithmen der Bayes’schen Datenanalyse als hervorragend geeignet für die Auswertung impedanzspektroskopischer Messungen dargestellt. Durch die ausführliche Validierung mit Testdaten liegt ein hohes Maß an Reliabilität der Ergebnisse vor. Die Parameterschätzung der Messung an Zellmonolayern gelang auch für sehr komplexe Modelle und über die Evidenz kann ein quantitativer Modellvergleich erfolgen. Die Modellparameter wurden auch hinsichtlich ihrer biophysikalischen Bedeutung untersucht. Die Technik ist somit der direkten Analyse des CellZscope vorzuziehen und kann auch zur verbesserten Planung zukünftiger Experimente (experimental design) verwendet werden. Außerdem ist eine Anwendung neuer Modelle, beispielsweise zur Quantifizierung der Fläche des noch intakten Monolayers bei starker Thrombinstimulation oder die Beschreibung komplexerer Setups wie Co-Kulturen verschiedener Zellarten möglich.
|
9 |
A tale of two applications: closed-loop quality control for 3D printing, and multiple imputation and the bootstrap for the analysis of big data with missingnessWenbin Zhu (12226001) 20 April 2022 (has links)
<div><b>1. A Closed-Loop Machine Learning and Compensation Framework for Geometric Accuracy Control of 3D Printed Products</b></div><div><b><br></b></div>Additive manufacturing (AM) systems enable direct printing of three-dimensional (3D) physical products from computer-aided design (CAD) models. Despite the many advantages that AM systems have over traditional manufacturing, one of their significant limitations that impedes their wide adoption is geometric inaccuracies, or shape deviations between the printed product and the nominal CAD model. Machine learning for shape deviations can enable geometric accuracy control of 3D printed products via the generation of compensation plans, which are modifications of CAD models informed by the machine learning algorithm that reduce deviations in expectation. However, existing machine learning and compensation frameworks cannot accommodate deviations of fully 3D shapes with different geometries. The feasibility of existing frameworks for geometric accuracy control is further limited by resource constraints in AM systems that prevent the printing of multiple copies of new shapes.<div><br></div><div>We present a closed-loop machine learning and compensation framework that can improve geometric accuracy control of 3D shapes in AM systems. Our framework is based on a Bayesian extreme learning machine (BELM) architecture that leverages data and deviation models from previously printed products to transfer deviation models, and more accurately capture deviation patterns, for new 3D products. The closed-loop nature of compensation under our framework, in which past compensated products that do not adequately meet dimensional specifications are fed into the BELMs to re-learn the deviation model, enables the identification of effective compensation plans and satisfies resource constraints by printing only one new shape at a time. The power and cost-effectiveness of our framework are demonstrated with two validation experiments that involve different geometries for a Markforged Metal X AM machine printing 17-4 PH stainless steel products. As demonstrated in our case studies, our framework can reduce shape inaccuracies by 30% to 60% (depending on a shape's geometric complexity) in at most two iterations, with three training shapes and one or two test shapes for a specific geometry involved across the iterations. We also perform an additional validation experiment using a third geometry to establish the capabilities of our framework for prospective shape deviation prediction of 3D shapes that have never been printed before. This third experiment indicates that choosing one suitable class of past products for prospective prediction and model transfer, instead of including all past printed products with different geometries, could be sufficient for obtaining deviation models with good predictive performance. Ultimately, our closed-loop machine learning and compensation framework provides an important step towards accurate and cost-efficient deviation modeling and compensation for fully 3D printed products using a minimal number of printed training and test shapes, and thereby can advance AM as a high-quality manufacturing paradigm.<br></div><div><br></div><div><b>2. Multiple Imputation and the Bootstrap for the Analysis of Big Data with Missingness</b></div><div><br></div><div>Inference can be a challenging task for Big Data. Two significant issues are that Big Data frequently exhibit complicated missing data patterns, and that the complex statistical models and machine learning algorithms typically used to analyze Big Data do not have convenient quantification of uncertainties for estimators. These two difficulties have previously been addressed using multiple imputation and the bootstrap, respectively. However, it is not clear how multiple imputation and bootstrap procedures can be effectively combined to perform statistical inferences on Big Data with missing values. We investigate a practical framework for the combination of multiple imputation and bootstrap methods. Our framework is based on two principles: distribution of multiple imputation and bootstrap calculations across parallel computational cores, and the quantification of sources of variability involved in bootstrap procedures that use subsampling techniques via random effects or hierarchical models. This framework effectively extends the scope of existing methods for multiple imputation and the bootstrap to a broad range of Big Data settings. We perform simulation studies for linear and logistic regression across Big Data settings with different rates of missingness to characterize the frequentist properties and computational efficiencies of the combinations of multiple imputation and the bootstrap. We further illustrate how effective combinations of multiple imputation and the bootstrap for Big Data analyses can be identified in practice by means of both the simulation studies and a case study on COVID infection status data. Ultimately, our investigation demonstrates how the flexible combination of multiple imputation and the bootstrap under our framework can enable valid statistical inferences in an effective manner for Big Data with missingness.<br></div>
|
Page generated in 0.0876 seconds