• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1374
  • 382
  • 379
  • 77
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 2524
  • 1657
  • 1214
  • 1211
  • 1199
  • 458
  • 393
  • 363
  • 344
  • 344
  • 324
  • 323
  • 318
  • 308
  • 239
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
941

Statistik und Wahrscheinlichkeitsrechnung: eine Einführung für Wirtschaftswissenschaftler

Schuhr, Roland 31 July 2017 (has links)
Das Lehrbuch ist als Vorlesungs­begleit­text zu einem einsemestrigen Modul 'Statistik und Wahrscheinlichkeitsrechnung' für Studierende Wirtschaftswissenschaftliche Bachelor-Studiengänge an der Universität Leipzig konzipiert. Der Text beinhaltet eine Einführung in die Deskriptive Statistik, die Wahrscheinlichkeitsrechnung und die Induktive Statistik. Darüber hinaus werden einige ausgewählte Aspekte thematisiert, die über den üblichen Inhalt einer Anfänger-Vorlesung hinaus­gehen, und interessierten Studierenden als Brücke zu Fortgeschrittenen-Kursen, insbesondere im Bereich Ökonometrie, dienen sollen.:1. Grundbegriffe der Statistik 1.1 Statistik und Wirtschaftswissenschaften 1.1.1 Bedeutung des Begriffs Statistik 1.1.2 Statistik als Hilfswissenschaft in den einzelnen ökonomischen Disziplinen 1.2 Statistische Daten und ihre Erhebung 1.2.1 Statistische Einheiten, statistische Massen und Merkmale 1.2.2 Daten, Merkmalsvariablen, Skalen 1.2.2.1 Klassifikationen von Variablen 1.2.2.2 Variablentransformationen 1.2.3 Aspekte der Datengewinnung 1.2.4 Klassifikation von Datensätzen 2. Deskription univariater Datensätze 2.1 Eindimensionale Häufigkeitsverteilungen 2.1.1 Häufigkeitsverteilungen bei diskreten Variablen (unklassierte Häufigkeitsverteilungen) 2.1.2 Klassierte Häufigkeitsverteilungen bei stetigen und quasistetigen Variablen 2.1.3 Empirische Verteilungsfunktion 2.1.4 Stem and Leaf Display 2.1.5 Typische Häufigkeitsverteilungen 2.2 Lagemaße 2.2.1 Modus 2.2.2 Median und weitere Quantile 2.2.3 Mittelwerte 2.2.3.1 Arithmetischer Mittelwert 2.2.3.2 Geometrischer und harmonischer Mittelwert 2.2.4 Weitere Eigenschaften der Lagemaße 2.2.4.1 Lagemaße und Transformationen 2.2.4.2 Ausreißer und Robustheit 2.2.4.3 Asymmetrische Verteilungen 2.3 Streuungsmaße 2.3.1 Spannweite und Quartilsabstand 2.3.2 Mittlere Abstände (mittlere absolute Abweichungen) 2.3.3 Varianz und Standardabweichung 2.3.4 Zusammenfassung (Aggregation) von statistischen Reihen 2.3.5 Streuungsmaße und Lineartransformationen 2.3.6 Relative Streuungsmaße (Variationskoeffizient) 2.4 Momente und Schiefemaße 2.4.1 Empirische Momente 2.4.2 Schiefemaße 2.5 Box-Plots und Vergleiche von Datensätzen 2.6 Konzentrationsmessung 2.6.1 Aufgabenstellungen der Konzentrationsmessung 2.6.2 Maße der relativen Konzentration 2.6.2.1 Lorenzkurve 2.6.2.2 Gini-Koeffizient 2.6.2.3 Variationskoeffizient 2.6.2.4 Kritik an den relativen Konzentrationsmaßen 2.6.3 Maße der absoluten Konzentration 2.6.3.1 Konzentrationsverhältnis und Konzentrationskurve 2.6.3.2 Herfindahl- und Rosenbluth-Koeffizient 3. Deskription bivariater Datensätze 3.1 Bivariate Häufigkeitsverteilungen und Randverteilungen 3.2 Bedingte Verteilungen 3.3 Maßzahlen für bivariate Verteilungen (Korrelationsrechnung) 3.3.1 Kovarianz und Bravais-Pearson-Korrelationskoeffizient 3.3.2 Rangkorrelationskoeffizient nach Spearman 3.3.3 Kontingenzkoeffizient nach Pearson 3.3.4 Lineartransformationen und Linearkombinationen zweier Variablen 4 Mess- und Indexzahlen 4.1 Messzahlen und Änderungsraten 4.2 Indexzahlen 4.2.1 Preisindizes 4.2.2 Mengenindizes 4.2.3 Wertindex 4.2.4 Gesamtindex und Teilindizes 4.2.5 Neubasierung, Umbasierung und Verkettung 5 Elementare Wahrscheinlichkeitsrechnung 5.1 Wahrscheinlichkeit 5.1.1 Zufallsvorgang, Ergebnis, Ereignis 5.1.2 Ereignisfeld 5.1.3 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsraum 5.2 Wahrscheinlichkeitskonzeptionen 5.2.1 Gleichmöglichkeitsmodell von Laplace 5.2.2 Statistische Wahrscheinlichkeit 5.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit 5.3.1 Bedingte Wahrscheinlichkeit 5.3.2 Theorem von Bayes 5.3.3 Unabhängigkeit von Ereignissen 6 Eindimensionale Zufallsvariablen und deren Wahrscheinlichkeitsverteilungen 6.1 Zufallsvariable 6.2 Messbarkeit, Induziertes W-Maß 6.3 Verteilungsfunktion 6.4 Arten von Zufallsvariablen 6.5 Maßzahlen einer Wahrscheinlichkeitsverteilung 6.5.1 Mittelwert und Varianz 6.5.2 Momente einer Wahrscheinlichkeitsverteilung 6.5.3 Quantile 6.5.4 Lineartransformationen von Zufallsvariablen 7 Mehrdimensionale Zufallsvariablen und deren Wahrscheinlichkeitsverteilungen 7.1 Zufallsvektor und gemeinsame Verteilungsfunktion 7.2 Diskrete und stetige Zufallsvektoren 7.3 Randverteilungen von Zufallsvektoren und unabhängige Zufallsvariablen 7.4 Momente eines Zufallsvektors 7.5 Bedingte Verteilungen 7.6 Linearkombinationen mehrerer Zufallsvariablen 8 Spezielle Wahrscheinlichkeitsverteilungsmodelle 8.1 Diskrete Verteilungsmodelle 8.1.1 Binomialverteilung 8.1.2 Poisson-Verteilung 8.1.3 Geometrische Verteilung 8.1.4 Hypergeometrische Verteilung 8.2 Stetige Verteilungsmodelle 8.2.1 Exponentialverteilung 8.2.2 Normalverteilung oder Gauss-Verteilung 8.2.2.1 Definition und Eigenschaften der Normalverteilung 8.2.2.2 Bedeutung der Normalverteilung 8.2.2.3 Verteilungsfunktion 8.2.2.4 Quantile und zentrale Schwankungsintervalle 8.2.2.5 Zentraler Grenzwertsatz 8.2.3 Multivariate Normalverteilung 8.2.4 Stichprobenverteilungen 8.2.5 Exkurs: Zwei nützliche Beweishilfsmittel 8.2.5.1 Ungleichung von Tschebyscheff 8.2.5.2 Momenterzeugende Funktion 8.3 Tabellarische Übersicht einiger Verteilungsmodelle 9 Einfache Zufallsstichproben, Stichprobenfunktionen und Gesetze der großen Zahlen 9.1 Einfache Zufallsstichproben 9.2 Stichprobenfunktionen und Gesetze der großen Zahlen 10 Schätzen der Kenngrößen von Wahrscheinlichkeitsverteilungen 10.1 Punktschätzung 10.1.1 Kriterien für die Wahl einer Schätzfunktion 10.1.2 Rao-Cramér-Ungleichung 10.1.3 Gewinnung von Schätzfunktionen 10.1.3.1 Methode der Momente 10.1.3.2 Maximum-Likelihood-Methode 10.2 Intervallschätzung 10.2.1 Konfidenzintervalle für die Parameter einer Normalverteilung 10.2.1.1 Konfidenzintervall für den Mittelwert 10.2.1.2 Konfidenzintervall für die Varianz 10.2.2 Approximative Konfidenzintervalle für den Mittelwert nicht normalverteilter, insbesondere dichotomer Grundgesamtheiten 10.2.3 Anmerkungen zur Wahl des Konfidenzniveaus und zur Planung von Stichprobenerhebungen 11 Testen von Hypothesen 11.1 Parametertests 11.1.1 Grundaufbau eines Parametertests 11.1.2 Tests über die Parameter normalverteilter Grundgesamtheiten 11.1.2.1 Tests über den Mittelwert bei bekannter Varianz (Gauss-Test) 11.1.2.2 Tests über den Mittelwert bei unbekannter Varianz (t-Test) 11.1.2.3 Tests über die Varianz (Chi-Quadrat-Streuungstest) 11.1.3 Approximative Tests über den Mittelwert nicht normalverteilter, insbesondere dichotomer Grundgesamtheiten (approximative Gauss-Tests) 11.1.4 Kenngrößenvergleiche auf der Basis zweier unabhängiger Stichproben 11.1.4.1 Mittelwertvergleiche bei normalverteilten Grundgesamtheiten (Zwei-Stichproben- t-Test, Welch-Test) 11.1.4.2 Varianzvergleich bei normalverteilten Grundgesamtheiten (Zwei-Stichproben-F-Test) 11.1.4.3 Approximative Mittelwertvergleiche bei beliebig verteilten Grundgesamtheiten (approximative Zwei-Stichproben-Gauss-Tests) 11.1.5 Mittelwertvergleich auf der Basis zweier verbundener Stichproben 11.1.6 Gütefunktionen von Parametertests 11.2 Anpassungstests 11.2.1 Chi-Quadrat-Anpassungstest 11.2.2 Q-Q-Plot 12 Regressionsanalyse (Lineare Einfachregression) 12.1 Deskriptive Regression 12.1.1 Anpassung der Regressionsgeraden mittels Kleinste-Quadrate-(KQ)-Methode 12.1.2 Eigenschaften der empirischen Regressionsgeraden 12.1.3 Streuungszerlegung und Bestimmtheitsmaß 12.1.4 Lineare Regression in Matrixform 12.1.5 Nichtlineare Zusammenhänge 12.2 Das (klassische) lineare Regressionsmodell 12.2.1 Kleinste-Quadrate-Schätzung der Modellparameter 12.2.2 Konfidenzintervalle und Tests 12.2.3 Punkt- und Intervallprognosen 12.2.4 Theoretische Hintergründe 12.2.5 Ausblick: Lineare Mehrfachregression Literaturverzeichnis
942

Energiedaten ...

09 June 2022 (has links)
No description available.
943

Energiedaten ...

09 June 2022 (has links)
No description available.
944

Energiedaten ...

09 June 2022 (has links)
No description available.
945

Causal Discovery Algorithms for Context-Specific Models / Kausala Upptäckts Algoritmer för Kontext-Specifika Modeller

Ibrahim, Mohamed Nazaal January 2021 (has links)
Despite having a philosophical grounding from empiricism that spans some centuries, the algorithmization of causal discovery started only a few decades ago. This formalization of studying causal relationships relies on connections between graphs and probability distributions. In this setting, the task of causal discovery is to recover the graph that best describes the causal structure based on the available data. A particular class of causal discovery algorithms, called constraint-based methods rely on Directed Acyclic Graphs (DAGs) as an encoding of Conditional Independence (CI) relations that carry some level of causal information. However, a CI relation such as X and Y being independent conditioned on Z assumes the independence holds for all possible values Z can take, which can tend to be unrealistic in practice where causal relations are often context-specific. In this thesis we aim to develop constraint-based algorithms to learn causal structure from Context-Specific Independence (CSI) relations within the discrete setting, where the independence relations are of the form X and Y being independent given Z and C = a for some a. This is done by using Context-Specific trees, or CStrees for short, which can encode CSI relations. / Trots att ha en filosofisk grund från empirism som sträcker sig över några århundraden, algoritm isering av kausal upptäckt startade för bara några decennier sedan. Denna formalisering av att studera orsakssamband beror på samband mellan grafer och sannolikhetsfördelningar. I den här inställningen är kausal upptäckt att återställa grafen som bäst beskriver kausal strukturen baserat på tillgängliga data. En särskild klass av kausala upptäckts algoritmer, så kallade begränsnings baserade metoder, är beroende av Directed Acyclic Graphs (DAG) som en kodning av förhållanden med villkorlig självständighet (CI) som bär någon nivå av kausal information. En CI-relation som X och Y är oberoende förutsatt att Z förutsätter att oberoende gäller för alla möjliga värden som Z kan ta, vilket kan vara orealistiskt i praktiken där orsakssamband ofta är kontextspecifika. I denna avhandling strävar vi efter att utveckla begränsnings baserade algoritmer för att lära kausal struktur från Contex-Specific Independence (CSI) -relationer inom den diskreta miljön, där självständighet relationerna har formen X och Y är oberoende med tanke på Z och C = a för vissa a. Detta görs genom att använda sammanhang specifika träd, eller kortfattat CStrees, som kan koda CSI-relationer.
946

Minimizing the expected opportunity loss by optimizing the ordering of shipping methods in e-Commerce using Machine Learning / Minimera den potentiella förlusten genom att optimera ordningen av leveransmetoder inom e-handel med maskininlärning

Ay, Jonatan, Azrak, Jamil January 2022 (has links)
The shopping industry is rapidly changing as the technology is advancing. This is especially true for the online industry where consumers are nowadays able to to shop much of what the need over the internet. In order to make the shopping experience as smooth as possible, different companies develops their sites and checkouts to be as friction-less as possible. In this thesis, the shipping module of Klarnas checkout was analyzed and different models were created to get an understanding of how the likelihood of a customer finalizing a purchase (conversion rate) could be improved. The shipping module consists of a number of shipping methods along with shipping carriers. Currently, there is no logic to sort the different shipping method/carriers other than a static ordering for all customers. The order of the shipping methods and carriers are what were investigated in the thesis. Hence, the core problem is to understand how the opportunity loss could be minimized by a different ordering of the shipping methods, where the opportunity loss are derived by the reduction in conversion rate between the control group (current setup) and a new model. To achieve this, a dataset was prepared and features were engineered in such a way that the same training and test datasets could be used in all algorithms. The features were engineered using a point-in-time concept so that no target leakage would be present. The target that was used was a plain concatenation of shipping method plus the shipping carrier. Finally, three different methods tackling this multiclass classification problem were investigated, namely Logistic Regression, Extreme Gradient Boosting and Artificial Neural Network. The aim of these algorithms is to create a learner that has been trained on a given dataset and that is able to predict the combination of shipping method plus carrier given a certain set of features. By the end of the investigation, it was concluded that using a model to predict the most relevant shipping method (plus carrier) for the customer made a positive difference on the conversion rate and in turn, the increase in sales. The overall accuracy of the Logistic Regression was 65.09%, 71.61% for the Extreme Gradient Boosting and 70.88% for the Artificial Neural Network. Once the models were trained, they were used in a back-simulation (that would be a proxy for an A/B-test) on a validation set to see the effect on the conversion rate. Here, the results showed that the conversion rate was 84.85% for the Logistic Regression model, 84.95% for the Extreme Gradient Boosting and 85.02% for the Artificial Neural Network. The control group which was a random sample of the current logic had a conversion rate of 84.21%. Thus, implementing the Artificial Neural Network would increase Klarnas sales by about 6.5 SEK per session. / Detaljhandelsindustrin förändras i en snabb takt i samband med att teknologin utvecklas. Detta är speciellt fallet för näthandeln där konsumenter numer har möjligheten att handla i stort sett allt de behöver över internet. För att göra köpupplevelsen så smidig som möjlig utvecklar olika bolag deras hemsidor och online kassor så att de innehåller så lite friktion som möjligt. I denna avhandling utreddes Klarnas leveransmodul som är en den av Klarnas onlinekassa (Checkout). Här utvecklades flera modeller och analyserades för att få en förståelse för hur sannolikheten att kunden slutför ett köp (konverterinsgrad) kunde ökas. Leveransmodulen består av ett flertalet leveransmetoder tillsammans med en leverantör. I dagsläget finns det ingen logik för att sortera dessa metoder annat än en statisk sortering för alla kunder. Ordningen på leveransmetoderna och leverantörerna är alltså vad som utreddes. Kärnproblemet i denna avhandling är alltså att förstå hur den potentiella förlusten av att ha en suboptimal sortering, där den potentiella förlusten härleds av minskningen av konverteringsgraden mellan den nuvarande lösningen och en ny modell. För att uppnå detta förbereddes ett dataset och variabler skapades på sådant vis att både tränings och test datan kunde användas för samtliga algoritmer. Variablerna skapades med en Point-in-time koncept så att ingen ogiltig information skulle komma med. Målvariabeln, eller den beroende variabeln, var en enkel ihopslagning av leveransmetoden plus leverantörens namn. Sedan användes tre algoritmer för att tackla detta multiklass klassifikationsproblem, nämligen Logistisk Regression, Extreme Gradient Boosting samt ett Artificiellt Neuralt Nätverk. Målet med dessa algoritmer är att skapa en modell som tränats på ett givet dataset och som kan förutspå kombinationen av leveransmetod plus leverantör givet ett bestämt set av värden på variablerna. I slutet av utredningen drogs slutsatsen att en modell, som kunde förutspå den mest relevanta leveransmetoden (plus leverantör) för kunden, hade en positiv inverkan på konverteringsgraden och i sin tur ökningen i försäljning. Noggrannheten för den Logistiska Regressionen var 65.09%, för Extreme Gradient Boosting var den 71 69% och för det Artificiella Neurala Nätverket var den 70.88%. Efter att modellerna tränats användes de i en simulering (som skulle representera ett A/B-test) på ett valideringsset för att förstå effekten på konverteringsgraden. Här visade resultaten att konverteringsgraden var 84.55% för Logistiska Regressionen, 84.95% för Extreme Gradient Boosting samt 85.02% för det Artificiella Neurala Nätverket. Kontrollgruppen som bestod av slumpmässigt valda rader från den nuvarande logiken hade en konvertingsgrad på 84.21%. Detta innebar alltså att om det Artificiella Neurala Nätverket hade implementerats, så hade det ökat Klarnas försäljning med ca 6.5 SEK per session.
947

Slumpmässigt urval, spelar det någon roll? : En empirisk studie om gymnasieelevers föreställningar om olika stickprovsmetoder / Random Selection, Does It Matter? : An Empirical Study about Students´ Ideas about Different Kinds of Sampling Methods

Davidsson, Robert January 2021 (has links)
Denna studie syftar till att undersöka vilka föreställningar elever har om ämnet statistik innan de arbetar med området i kursen matematik 2b. Studien undersöker också vilka föreställningar eleverna har om olika stickprovsmetoder innan de har någon kännedom om hur ett stickprov faktiskt går till. Studien är inspirerad av en liknande studie som genomfördes 1999 av Victoria Jacobs. För att undersöka detta har en enkätstudie genomförts i två klasser från det samhällsvetenskapliga programmet i en kommunal skola i södra Sverige. Resultatet från studien visar att elever främst  tänker på grafer och diagram när de hör ordet statistik och ser statistik som ett sätt att samla in och presentera data. Eleverna anser också att den bästa metoden för ett stickprov är att ge alla chansen att delta i undersökningen genom  att de själva tar initiativ till att genomföra undersökningen. Eleverna ser ett slumpmässigt urval som en risk, att slumpen ska generera individer i populationen som tycker samma sak och då inte är representativ för hela populationen. / The aim of this study is to examine students´ ideas about (the subject) Statistics before they are introduced to the area in the course Mathematics 2b and to examine their beliefs about different sampling methods before they know the  principles of sampling methods. This study is inspired by a similar study by Victoria Jacobs 1999. To fulfil this aim, a survey study was conducted in two classes from the Social Studies program in a public school in the south of Sweden. The result shows that the students mainly think about graphs and diagrams when they hear the word statistics and that they see statistics as a way to collect and present data. Furthermore, the students believe that the best sampling method is a self-selection, i.e. every individual in the population has the choice to participate. They see a random  selection as a risk to generate a sample of individuals who all share the same opinions and therefore are not representative for the whole population.
948

Prediktion av svenska riksdagsval : En kvantitativ studie med bayesianska regressionsmodeller

Olsson, Gustav, Ölfvingsson, Manne January 2021 (has links)
Syftet med uppsatsen är att studera olika residualfördelningar i samband med skapande av modeller föratt predicera valresultat till Sveriges riksdag. Modellerna inkluderar olika typer av t-fördelningar,gammafördelningen samt normalfördelningen som används som referensmodell från en tidigare studie.Strukturella regressionsmodeller och opinionsundersökningar är viktiga hörnstenar för att besvarastudiens frågeställningar. Metoder kopplade till bayesiansk statistik används kontinuerligt genomstudien där dragningar från aposteriorifördelningen liksom den prediktiva fördelningen genereras medhjälp av Markov chain Monte Carlo. För att utvärdera de framtagna modellerna används RMSE,prediktionsintervall, PIT-värden samt ELPD, där särskild vikt läggs vid värdet på ELPD. Resultatetdemonstrerar att den trunkerade t-fördelningen samt den icke-centrerade t-fördelningen generellt gerbäst resultat. För vissa partier, såsom Vänsterpartiet, visar sig dock andra fördelningar vara bättrelämpade vilket kan bero på dessa partiers storlek. Vidare väljs modellerna med icke-centrerad t-fördelning samt trunkerad t-fördelning ut för enjämförelse med de två referensmodellerna vid prediktion för valet 2018. Modell 5 väljs ut som den bästlämpade modellen för valprediktion i en svensk kontext och den prediktiva fördelningen för respektiveparti och valår 2018 illustreras. Slutligen skattas och tolkas parametrarna β och υ för modellen.Resultatet visar att lämpligheten för olika fördelningar varierar mellan partierna, men att en t-fördelninggenerellt ger ett bättre resultat, vad gäller valprediktionens träffsäkerhet, än normalfördelningen.Resultatet blir bättre när det skapas en trunkerad t-fördelning vid 0 vilket stoppar möjligheten förnegativa dragningar av valresultat, något som normalfördelningen och t-fördelningen ej åstadkommer.
949

Sächsischer Agrarbericht ...

27 April 2022 (has links)
No description available.
950

Sächsischer Agrarbericht ...

27 April 2022 (has links)
No description available.

Page generated in 0.0665 seconds