Spelling suggestions: "subject:"biostatistik."" "subject:"datastatistik.""
941 |
Statistik und Wahrscheinlichkeitsrechnung: eine Einführung für WirtschaftswissenschaftlerSchuhr, Roland 31 July 2017 (has links)
Das Lehrbuch ist als Vorlesungsbegleittext zu einem einsemestrigen Modul 'Statistik und Wahrscheinlichkeitsrechnung' für Studierende Wirtschaftswissenschaftliche Bachelor-Studiengänge an der Universität Leipzig konzipiert. Der Text beinhaltet eine Einführung in die Deskriptive Statistik, die Wahrscheinlichkeitsrechnung und die Induktive Statistik. Darüber hinaus werden einige ausgewählte Aspekte thematisiert, die über den üblichen Inhalt einer Anfänger-Vorlesung hinausgehen, und interessierten Studierenden als Brücke zu Fortgeschrittenen-Kursen, insbesondere im Bereich Ökonometrie, dienen sollen.:1. Grundbegriffe der Statistik
1.1 Statistik und Wirtschaftswissenschaften
1.1.1 Bedeutung des Begriffs Statistik
1.1.2 Statistik als Hilfswissenschaft in den einzelnen ökonomischen Disziplinen
1.2 Statistische Daten und ihre Erhebung
1.2.1 Statistische Einheiten, statistische Massen und Merkmale
1.2.2 Daten, Merkmalsvariablen, Skalen
1.2.2.1 Klassifikationen von Variablen
1.2.2.2 Variablentransformationen
1.2.3 Aspekte der Datengewinnung
1.2.4 Klassifikation von Datensätzen
2. Deskription univariater Datensätze
2.1 Eindimensionale Häufigkeitsverteilungen
2.1.1 Häufigkeitsverteilungen bei diskreten Variablen (unklassierte Häufigkeitsverteilungen)
2.1.2 Klassierte Häufigkeitsverteilungen bei stetigen und quasistetigen Variablen
2.1.3 Empirische Verteilungsfunktion
2.1.4 Stem and Leaf Display
2.1.5 Typische Häufigkeitsverteilungen
2.2 Lagemaße
2.2.1 Modus
2.2.2 Median und weitere Quantile
2.2.3 Mittelwerte
2.2.3.1 Arithmetischer Mittelwert
2.2.3.2 Geometrischer und harmonischer Mittelwert
2.2.4 Weitere Eigenschaften der Lagemaße
2.2.4.1 Lagemaße und Transformationen
2.2.4.2 Ausreißer und Robustheit
2.2.4.3 Asymmetrische Verteilungen
2.3 Streuungsmaße
2.3.1 Spannweite und Quartilsabstand
2.3.2 Mittlere Abstände (mittlere absolute Abweichungen)
2.3.3 Varianz und Standardabweichung
2.3.4 Zusammenfassung (Aggregation) von statistischen Reihen
2.3.5 Streuungsmaße und Lineartransformationen
2.3.6 Relative Streuungsmaße (Variationskoeffizient)
2.4 Momente und Schiefemaße
2.4.1 Empirische Momente
2.4.2 Schiefemaße
2.5 Box-Plots und Vergleiche von Datensätzen
2.6 Konzentrationsmessung
2.6.1 Aufgabenstellungen der Konzentrationsmessung
2.6.2 Maße der relativen Konzentration
2.6.2.1 Lorenzkurve
2.6.2.2 Gini-Koeffizient
2.6.2.3 Variationskoeffizient
2.6.2.4 Kritik an den relativen Konzentrationsmaßen
2.6.3 Maße der absoluten Konzentration
2.6.3.1 Konzentrationsverhältnis und Konzentrationskurve
2.6.3.2 Herfindahl- und Rosenbluth-Koeffizient
3. Deskription bivariater Datensätze
3.1 Bivariate Häufigkeitsverteilungen und Randverteilungen
3.2 Bedingte Verteilungen
3.3 Maßzahlen für bivariate Verteilungen (Korrelationsrechnung)
3.3.1 Kovarianz und Bravais-Pearson-Korrelationskoeffizient
3.3.2 Rangkorrelationskoeffizient nach Spearman
3.3.3 Kontingenzkoeffizient nach Pearson
3.3.4 Lineartransformationen und Linearkombinationen zweier Variablen
4 Mess- und Indexzahlen
4.1 Messzahlen und Änderungsraten
4.2 Indexzahlen
4.2.1 Preisindizes
4.2.2 Mengenindizes
4.2.3 Wertindex
4.2.4 Gesamtindex und Teilindizes
4.2.5 Neubasierung, Umbasierung und Verkettung
5 Elementare Wahrscheinlichkeitsrechnung
5.1 Wahrscheinlichkeit
5.1.1 Zufallsvorgang, Ergebnis, Ereignis
5.1.2 Ereignisfeld
5.1.3 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsraum
5.2 Wahrscheinlichkeitskonzeptionen
5.2.1 Gleichmöglichkeitsmodell von Laplace
5.2.2 Statistische Wahrscheinlichkeit
5.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit
5.3.1 Bedingte Wahrscheinlichkeit
5.3.2 Theorem von Bayes
5.3.3 Unabhängigkeit von Ereignissen
6 Eindimensionale Zufallsvariablen und deren Wahrscheinlichkeitsverteilungen
6.1 Zufallsvariable
6.2 Messbarkeit, Induziertes W-Maß
6.3 Verteilungsfunktion
6.4 Arten von Zufallsvariablen
6.5 Maßzahlen einer Wahrscheinlichkeitsverteilung
6.5.1 Mittelwert und Varianz
6.5.2 Momente einer Wahrscheinlichkeitsverteilung
6.5.3 Quantile
6.5.4 Lineartransformationen von Zufallsvariablen
7 Mehrdimensionale Zufallsvariablen und deren Wahrscheinlichkeitsverteilungen
7.1 Zufallsvektor und gemeinsame Verteilungsfunktion
7.2 Diskrete und stetige Zufallsvektoren
7.3 Randverteilungen von Zufallsvektoren und unabhängige Zufallsvariablen
7.4 Momente eines Zufallsvektors
7.5 Bedingte Verteilungen
7.6 Linearkombinationen mehrerer Zufallsvariablen
8 Spezielle Wahrscheinlichkeitsverteilungsmodelle
8.1 Diskrete Verteilungsmodelle
8.1.1 Binomialverteilung
8.1.2 Poisson-Verteilung
8.1.3 Geometrische Verteilung
8.1.4 Hypergeometrische Verteilung
8.2 Stetige Verteilungsmodelle
8.2.1 Exponentialverteilung
8.2.2 Normalverteilung oder Gauss-Verteilung
8.2.2.1 Definition und Eigenschaften der Normalverteilung
8.2.2.2 Bedeutung der Normalverteilung
8.2.2.3 Verteilungsfunktion
8.2.2.4 Quantile und zentrale Schwankungsintervalle
8.2.2.5 Zentraler Grenzwertsatz
8.2.3 Multivariate Normalverteilung
8.2.4 Stichprobenverteilungen
8.2.5 Exkurs: Zwei nützliche Beweishilfsmittel
8.2.5.1 Ungleichung von Tschebyscheff
8.2.5.2 Momenterzeugende Funktion
8.3 Tabellarische Übersicht einiger Verteilungsmodelle
9 Einfache Zufallsstichproben, Stichprobenfunktionen und Gesetze der
großen Zahlen
9.1 Einfache Zufallsstichproben
9.2 Stichprobenfunktionen und Gesetze der großen Zahlen
10 Schätzen der Kenngrößen von Wahrscheinlichkeitsverteilungen
10.1 Punktschätzung
10.1.1 Kriterien für die Wahl einer Schätzfunktion
10.1.2 Rao-Cramér-Ungleichung
10.1.3 Gewinnung von Schätzfunktionen
10.1.3.1 Methode der Momente
10.1.3.2 Maximum-Likelihood-Methode
10.2 Intervallschätzung
10.2.1 Konfidenzintervalle für die Parameter einer Normalverteilung
10.2.1.1 Konfidenzintervall für den Mittelwert
10.2.1.2 Konfidenzintervall für die Varianz
10.2.2 Approximative Konfidenzintervalle für den Mittelwert nicht normalverteilter,
insbesondere dichotomer Grundgesamtheiten
10.2.3 Anmerkungen zur Wahl des Konfidenzniveaus und zur Planung von Stichprobenerhebungen
11 Testen von Hypothesen
11.1 Parametertests
11.1.1 Grundaufbau eines Parametertests
11.1.2 Tests über die Parameter normalverteilter Grundgesamtheiten
11.1.2.1 Tests über den Mittelwert bei bekannter Varianz (Gauss-Test)
11.1.2.2 Tests über den Mittelwert bei unbekannter Varianz (t-Test)
11.1.2.3 Tests über die Varianz (Chi-Quadrat-Streuungstest)
11.1.3 Approximative Tests über den Mittelwert nicht normalverteilter, insbesondere
dichotomer Grundgesamtheiten (approximative Gauss-Tests)
11.1.4 Kenngrößenvergleiche auf der Basis zweier unabhängiger Stichproben
11.1.4.1 Mittelwertvergleiche bei normalverteilten Grundgesamtheiten (Zwei-Stichproben-
t-Test, Welch-Test)
11.1.4.2 Varianzvergleich bei normalverteilten Grundgesamtheiten (Zwei-Stichproben-F-Test)
11.1.4.3 Approximative Mittelwertvergleiche bei beliebig verteilten Grundgesamtheiten
(approximative Zwei-Stichproben-Gauss-Tests)
11.1.5 Mittelwertvergleich auf der Basis zweier verbundener Stichproben
11.1.6 Gütefunktionen von Parametertests
11.2 Anpassungstests
11.2.1 Chi-Quadrat-Anpassungstest
11.2.2 Q-Q-Plot
12 Regressionsanalyse (Lineare Einfachregression)
12.1 Deskriptive Regression
12.1.1 Anpassung der Regressionsgeraden mittels Kleinste-Quadrate-(KQ)-Methode
12.1.2 Eigenschaften der empirischen Regressionsgeraden
12.1.3 Streuungszerlegung und Bestimmtheitsmaß
12.1.4 Lineare Regression in Matrixform
12.1.5 Nichtlineare Zusammenhänge
12.2 Das (klassische) lineare Regressionsmodell
12.2.1 Kleinste-Quadrate-Schätzung der Modellparameter
12.2.2 Konfidenzintervalle und Tests
12.2.3 Punkt- und Intervallprognosen
12.2.4 Theoretische Hintergründe
12.2.5 Ausblick: Lineare Mehrfachregression
Literaturverzeichnis
|
942 |
Energiedaten ...09 June 2022 (has links)
No description available.
|
943 |
Energiedaten ...09 June 2022 (has links)
No description available.
|
944 |
Energiedaten ...09 June 2022 (has links)
No description available.
|
945 |
Causal Discovery Algorithms for Context-Specific Models / Kausala Upptäckts Algoritmer för Kontext-Specifika ModellerIbrahim, Mohamed Nazaal January 2021 (has links)
Despite having a philosophical grounding from empiricism that spans some centuries, the algorithmization of causal discovery started only a few decades ago. This formalization of studying causal relationships relies on connections between graphs and probability distributions. In this setting, the task of causal discovery is to recover the graph that best describes the causal structure based on the available data. A particular class of causal discovery algorithms, called constraint-based methods rely on Directed Acyclic Graphs (DAGs) as an encoding of Conditional Independence (CI) relations that carry some level of causal information. However, a CI relation such as X and Y being independent conditioned on Z assumes the independence holds for all possible values Z can take, which can tend to be unrealistic in practice where causal relations are often context-specific. In this thesis we aim to develop constraint-based algorithms to learn causal structure from Context-Specific Independence (CSI) relations within the discrete setting, where the independence relations are of the form X and Y being independent given Z and C = a for some a. This is done by using Context-Specific trees, or CStrees for short, which can encode CSI relations. / Trots att ha en filosofisk grund från empirism som sträcker sig över några århundraden, algoritm isering av kausal upptäckt startade för bara några decennier sedan. Denna formalisering av att studera orsakssamband beror på samband mellan grafer och sannolikhetsfördelningar. I den här inställningen är kausal upptäckt att återställa grafen som bäst beskriver kausal strukturen baserat på tillgängliga data. En särskild klass av kausala upptäckts algoritmer, så kallade begränsnings baserade metoder, är beroende av Directed Acyclic Graphs (DAG) som en kodning av förhållanden med villkorlig självständighet (CI) som bär någon nivå av kausal information. En CI-relation som X och Y är oberoende förutsatt att Z förutsätter att oberoende gäller för alla möjliga värden som Z kan ta, vilket kan vara orealistiskt i praktiken där orsakssamband ofta är kontextspecifika. I denna avhandling strävar vi efter att utveckla begränsnings baserade algoritmer för att lära kausal struktur från Contex-Specific Independence (CSI) -relationer inom den diskreta miljön, där självständighet relationerna har formen X och Y är oberoende med tanke på Z och C = a för vissa a. Detta görs genom att använda sammanhang specifika träd, eller kortfattat CStrees, som kan koda CSI-relationer.
|
946 |
Minimizing the expected opportunity loss by optimizing the ordering of shipping methods in e-Commerce using Machine Learning / Minimera den potentiella förlusten genom att optimera ordningen av leveransmetoder inom e-handel med maskininlärningAy, Jonatan, Azrak, Jamil January 2022 (has links)
The shopping industry is rapidly changing as the technology is advancing. This is especially true for the online industry where consumers are nowadays able to to shop much of what the need over the internet. In order to make the shopping experience as smooth as possible, different companies develops their sites and checkouts to be as friction-less as possible. In this thesis, the shipping module of Klarnas checkout was analyzed and different models were created to get an understanding of how the likelihood of a customer finalizing a purchase (conversion rate) could be improved. The shipping module consists of a number of shipping methods along with shipping carriers. Currently, there is no logic to sort the different shipping method/carriers other than a static ordering for all customers. The order of the shipping methods and carriers are what were investigated in the thesis. Hence, the core problem is to understand how the opportunity loss could be minimized by a different ordering of the shipping methods, where the opportunity loss are derived by the reduction in conversion rate between the control group (current setup) and a new model. To achieve this, a dataset was prepared and features were engineered in such a way that the same training and test datasets could be used in all algorithms. The features were engineered using a point-in-time concept so that no target leakage would be present. The target that was used was a plain concatenation of shipping method plus the shipping carrier. Finally, three different methods tackling this multiclass classification problem were investigated, namely Logistic Regression, Extreme Gradient Boosting and Artificial Neural Network. The aim of these algorithms is to create a learner that has been trained on a given dataset and that is able to predict the combination of shipping method plus carrier given a certain set of features. By the end of the investigation, it was concluded that using a model to predict the most relevant shipping method (plus carrier) for the customer made a positive difference on the conversion rate and in turn, the increase in sales. The overall accuracy of the Logistic Regression was 65.09%, 71.61% for the Extreme Gradient Boosting and 70.88% for the Artificial Neural Network. Once the models were trained, they were used in a back-simulation (that would be a proxy for an A/B-test) on a validation set to see the effect on the conversion rate. Here, the results showed that the conversion rate was 84.85% for the Logistic Regression model, 84.95% for the Extreme Gradient Boosting and 85.02% for the Artificial Neural Network. The control group which was a random sample of the current logic had a conversion rate of 84.21%. Thus, implementing the Artificial Neural Network would increase Klarnas sales by about 6.5 SEK per session. / Detaljhandelsindustrin förändras i en snabb takt i samband med att teknologin utvecklas. Detta är speciellt fallet för näthandeln där konsumenter numer har möjligheten att handla i stort sett allt de behöver över internet. För att göra köpupplevelsen så smidig som möjlig utvecklar olika bolag deras hemsidor och online kassor så att de innehåller så lite friktion som möjligt. I denna avhandling utreddes Klarnas leveransmodul som är en den av Klarnas onlinekassa (Checkout). Här utvecklades flera modeller och analyserades för att få en förståelse för hur sannolikheten att kunden slutför ett köp (konverterinsgrad) kunde ökas. Leveransmodulen består av ett flertalet leveransmetoder tillsammans med en leverantör. I dagsläget finns det ingen logik för att sortera dessa metoder annat än en statisk sortering för alla kunder. Ordningen på leveransmetoderna och leverantörerna är alltså vad som utreddes. Kärnproblemet i denna avhandling är alltså att förstå hur den potentiella förlusten av att ha en suboptimal sortering, där den potentiella förlusten härleds av minskningen av konverteringsgraden mellan den nuvarande lösningen och en ny modell. För att uppnå detta förbereddes ett dataset och variabler skapades på sådant vis att både tränings och test datan kunde användas för samtliga algoritmer. Variablerna skapades med en Point-in-time koncept så att ingen ogiltig information skulle komma med. Målvariabeln, eller den beroende variabeln, var en enkel ihopslagning av leveransmetoden plus leverantörens namn. Sedan användes tre algoritmer för att tackla detta multiklass klassifikationsproblem, nämligen Logistisk Regression, Extreme Gradient Boosting samt ett Artificiellt Neuralt Nätverk. Målet med dessa algoritmer är att skapa en modell som tränats på ett givet dataset och som kan förutspå kombinationen av leveransmetod plus leverantör givet ett bestämt set av värden på variablerna. I slutet av utredningen drogs slutsatsen att en modell, som kunde förutspå den mest relevanta leveransmetoden (plus leverantör) för kunden, hade en positiv inverkan på konverteringsgraden och i sin tur ökningen i försäljning. Noggrannheten för den Logistiska Regressionen var 65.09%, för Extreme Gradient Boosting var den 71 69% och för det Artificiella Neurala Nätverket var den 70.88%. Efter att modellerna tränats användes de i en simulering (som skulle representera ett A/B-test) på ett valideringsset för att förstå effekten på konverteringsgraden. Här visade resultaten att konverteringsgraden var 84.55% för Logistiska Regressionen, 84.95% för Extreme Gradient Boosting samt 85.02% för det Artificiella Neurala Nätverket. Kontrollgruppen som bestod av slumpmässigt valda rader från den nuvarande logiken hade en konvertingsgrad på 84.21%. Detta innebar alltså att om det Artificiella Neurala Nätverket hade implementerats, så hade det ökat Klarnas försäljning med ca 6.5 SEK per session.
|
947 |
Slumpmässigt urval, spelar det någon roll? : En empirisk studie om gymnasieelevers föreställningar om olika stickprovsmetoder / Random Selection, Does It Matter? : An Empirical Study about Students´ Ideas about Different Kinds of Sampling MethodsDavidsson, Robert January 2021 (has links)
Denna studie syftar till att undersöka vilka föreställningar elever har om ämnet statistik innan de arbetar med området i kursen matematik 2b. Studien undersöker också vilka föreställningar eleverna har om olika stickprovsmetoder innan de har någon kännedom om hur ett stickprov faktiskt går till. Studien är inspirerad av en liknande studie som genomfördes 1999 av Victoria Jacobs. För att undersöka detta har en enkätstudie genomförts i två klasser från det samhällsvetenskapliga programmet i en kommunal skola i södra Sverige. Resultatet från studien visar att elever främst tänker på grafer och diagram när de hör ordet statistik och ser statistik som ett sätt att samla in och presentera data. Eleverna anser också att den bästa metoden för ett stickprov är att ge alla chansen att delta i undersökningen genom att de själva tar initiativ till att genomföra undersökningen. Eleverna ser ett slumpmässigt urval som en risk, att slumpen ska generera individer i populationen som tycker samma sak och då inte är representativ för hela populationen. / The aim of this study is to examine students´ ideas about (the subject) Statistics before they are introduced to the area in the course Mathematics 2b and to examine their beliefs about different sampling methods before they know the principles of sampling methods. This study is inspired by a similar study by Victoria Jacobs 1999. To fulfil this aim, a survey study was conducted in two classes from the Social Studies program in a public school in the south of Sweden. The result shows that the students mainly think about graphs and diagrams when they hear the word statistics and that they see statistics as a way to collect and present data. Furthermore, the students believe that the best sampling method is a self-selection, i.e. every individual in the population has the choice to participate. They see a random selection as a risk to generate a sample of individuals who all share the same opinions and therefore are not representative for the whole population.
|
948 |
Prediktion av svenska riksdagsval : En kvantitativ studie med bayesianska regressionsmodellerOlsson, Gustav, Ölfvingsson, Manne January 2021 (has links)
Syftet med uppsatsen är att studera olika residualfördelningar i samband med skapande av modeller föratt predicera valresultat till Sveriges riksdag. Modellerna inkluderar olika typer av t-fördelningar,gammafördelningen samt normalfördelningen som används som referensmodell från en tidigare studie.Strukturella regressionsmodeller och opinionsundersökningar är viktiga hörnstenar för att besvarastudiens frågeställningar. Metoder kopplade till bayesiansk statistik används kontinuerligt genomstudien där dragningar från aposteriorifördelningen liksom den prediktiva fördelningen genereras medhjälp av Markov chain Monte Carlo. För att utvärdera de framtagna modellerna används RMSE,prediktionsintervall, PIT-värden samt ELPD, där särskild vikt läggs vid värdet på ELPD. Resultatetdemonstrerar att den trunkerade t-fördelningen samt den icke-centrerade t-fördelningen generellt gerbäst resultat. För vissa partier, såsom Vänsterpartiet, visar sig dock andra fördelningar vara bättrelämpade vilket kan bero på dessa partiers storlek. Vidare väljs modellerna med icke-centrerad t-fördelning samt trunkerad t-fördelning ut för enjämförelse med de två referensmodellerna vid prediktion för valet 2018. Modell 5 väljs ut som den bästlämpade modellen för valprediktion i en svensk kontext och den prediktiva fördelningen för respektiveparti och valår 2018 illustreras. Slutligen skattas och tolkas parametrarna β och υ för modellen.Resultatet visar att lämpligheten för olika fördelningar varierar mellan partierna, men att en t-fördelninggenerellt ger ett bättre resultat, vad gäller valprediktionens träffsäkerhet, än normalfördelningen.Resultatet blir bättre när det skapas en trunkerad t-fördelning vid 0 vilket stoppar möjligheten förnegativa dragningar av valresultat, något som normalfördelningen och t-fördelningen ej åstadkommer.
|
949 |
Sächsischer Agrarbericht ...27 April 2022 (has links)
No description available.
|
950 |
Sächsischer Agrarbericht ...27 April 2022 (has links)
No description available.
|
Page generated in 0.0665 seconds