• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1374
  • 382
  • 379
  • 77
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 2524
  • 1657
  • 1214
  • 1211
  • 1199
  • 458
  • 393
  • 363
  • 344
  • 344
  • 324
  • 323
  • 318
  • 308
  • 239
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
581

En analys av poolspelet Topptipset : En statistisk resa mot ekonomisk vinst

Hanna, Michal, Bennis, Maria January 2024 (has links)
No description available.
582

The analysis of competing risks data with a focus on estimation of cause-specific and subdistribution hazard ratios from a mixture model

Haller, Bernhard 20 May 2014 (has links) (PDF)
Treatment efficacy in clinical trials is often assessed by time from treatment initiation to occurrence of a certain critical or beneficial event. In most cases the event of interest cannot be observed for all patients, as patients are only followed for a limited time or contact to patients is lost during their follow-up time. Therefore, certain methods were developed in the framework of the so called time-to-event or survival analysis, in order to obtain valid and consistent estimates in the presence of these "censored observations", using all available information. In classical event time analysis only one endpoint exists, as the death of a patient. As patients can die from different causes, in some clinical trials time to one out of two or more mutually exclusive types of event may be of interest. In many oncological studies, for example, time to cancer-specific death is considered as primary endpoint with deaths from other causes acting as so called competing risks. Different methods for data analysis in the competing risks framework were developed in recent years, which either focus on modelling the cause-specific or the subdistribution hazard rate or split the joint distribution of event times and event types into quantities, that can be estimated from observable data. In this work the analysis of event time data in the presence of competing risks is described, including the presentation and discussion of different regression approaches. A major topic of this work is the estimation of cause-specific and subdistribution hazard rates from a mixture model and a new approach using penalized B-splines (P-splines) for estimation of conditional hazard rates in a mixture model is proposed. In order to evaluate the behaviour of the new approach, a simulation study was conducted, using simulation techniques for competing risks data, which are described in detail in this work. The presented regression models were applied to data from a clinical cohort study investigating a risk stratification for cardiac mortality in patients, that survived a myocardial infarction. Finally, the use of the presented methods for event time analysis in the presence of competing risks and results obtained from the simulation study and the data analysis are discussed. / Zur Beurteilung der Wirksamkeit von Behandlungen in klinischen Studien wird häufig die Zeit vom Beginn einer Behandlung bis zum Eintreten eines bestimmten kritischen oder erwünschten Ereignisses als Zielgröße verwendet. Da in vielen Fällen das entsprechende Ereignis nicht bei allen Patienten beobachtet werden kann, da z.B. Patienten nur für einen gewissen Zeitraum nachverfolgt werden können oder der Patientenkontakt in der Nachbeobachtungszeit abbricht, wurden im Rahmen der so genannten Ereigniszeit- bzw. Überlebenszeitanalyse Verfahren entwickelt, die bei Vorliegen dieser "zensierten Beobachtungen" konsistente Schätzer liefern und dabei die gesamte verfügbare Information verwenden. In der klassischen Ereigniszeitanalyse existiert nur ein möglicher Endpunkt, wie der Tod eines Patienten. Da Patienten jedoch an verschiedenen Ursachen versterben können, ist in manchen klinischen Studien die Zeit bis zu einem von zwei oder mehreren sich gegenseitig ausschließenden Ereignistypen von Interesse. So fungiert z.B. in vielen onkologischen Studien die Zeit bis zum tumor-bedingten Tod als primärer Endpunkt, wobei andere Todesursachen sogenannte konkurrierende Risiken ("Competing Risks") darstellen. In den letzten Jahren wurden mehrere Verfahren zur Datenanalyse bei Vorliegen konkurrierender Risiken entwickelt, bei denen entweder die ereignis-spezifische oder die Subdistribution-Hazardrate modelliert wird, oder bei denen die gemeinsame Verteilung von Ereigniszeiten und Ereignistypen als Produkt von Größen abgebildet wird, die aus den beobachtbaren Daten geschätzt werden können. In dieser Arbeit werden Methoden zur Analyse von Competing-Risks-Daten, einschließlich verschiedener Regressionsansätze, vorgestellt. Besonderes Augenmerk liegt auf der Schätzung der ereignis-spezifischen und Subdistribution-Hazardraten aus einem sogenannten Mixture Model. Diesbezüglich wird auch ein neuer Ansatz zur Schätzung der konditionalen Hazardraten in einem Mixture Model unter Verwendung penalisierter B-Spline-Funktionen (P-Splines) vorgestellt. Um die Eigenschaften des neuen Ansatzes zu untersuchen, wurde eine Simulationsstudie unter Einsatz verschiedener Simulationsstrategien für Competing-Risks-Daten, die in dieser Arbeit im Detail beschrieben werden, durchgeführt. Die Regressionsmodelle wurden auf Daten einer klinischen Kohortenstudie zur Evaluation einer Risikostratifizierung für Patienten, die einen Myokardinfarkt überlebt haben, angewandt. Abschließend werden die vorgestellten Methoden zur Analyse von Ereigniszeitdaten bei Vorliegen konkurrierender Risiken sowie die Ergebnisse der Simulationsstudie und der Datenanalyse diskutiert.
583

Generalized Bayesian inference under prior-data conflict

Walter, Gero 25 October 2013 (has links) (PDF)
This thesis is concerned with the generalisation of Bayesian inference towards the use of imprecise or interval probability, with a focus on model behaviour in case of prior-data conflict. Bayesian inference is one of the main approaches to statistical inference. It requires to express (subjective) knowledge on the parameter(s) of interest not incorporated in the data by a so-called prior distribution. All inferences are then based on the so-called posterior distribution, the subsumption of prior knowledge and the information in the data calculated via Bayes' Rule. The adequate choice of priors has always been an intensive matter of debate in the Bayesian literature. While a considerable part of the literature is concerned with so-called non-informative priors aiming to eliminate (or, at least, to standardise) the influence of priors on posterior inferences, inclusion of specific prior information into the model may be necessary if data are scarce, or do not contain much information about the parameter(s) of interest; also, shrinkage estimators, common in frequentist approaches, can be considered as Bayesian estimators based on informative priors. When substantial information is used to elicit the prior distribution through, e.g, an expert's assessment, and the sample size is not large enough to eliminate the influence of the prior, prior-data conflict can occur, i.e., information from outlier-free data suggests parameter values which are surprising from the viewpoint of prior information, and it may not be clear whether the prior specifications or the integrity of the data collecting method (the measurement procedure could, e.g., be systematically biased) should be questioned. In any case, such a conflict should be reflected in the posterior, leading to very cautious inferences, and most statisticians would thus expect to observe, e.g., wider credibility intervals for parameters in case of prior-data conflict. However, at least when modelling is based on conjugate priors, prior-data conflict is in most cases completely averaged out, giving a false certainty in posterior inferences. Here, imprecise or interval probability methods offer sound strategies to counter this issue, by mapping parameter uncertainty over sets of priors resp. posteriors instead of over single distributions. This approach is supported by recent research in economics, risk analysis and artificial intelligence, corroborating the multi-dimensional nature of uncertainty and concluding that standard probability theory as founded on Kolmogorov's or de Finetti's framework may be too restrictive, being appropriate only for describing one dimension, namely ideal stochastic phenomena. The thesis studies how to efficiently describe sets of priors in the setting of samples from an exponential family. Models are developed that offer enough flexibility to express a wide range of (partial) prior information, give reasonably cautious inferences in case of prior-data conflict while resulting in more precise inferences when prior and data agree well, and still remain easily tractable in order to be useful for statistical practice. Applications in various areas, e.g. common-cause failure modeling and Bayesian linear regression, are explored, and the developed approach is compared to other imprecise probability models. / Das Thema dieser Dissertation ist die Generalisierung der Bayes-Inferenz durch die Verwendung von unscharfen oder intervallwertigen Wahrscheinlichkeiten. Ein besonderer Fokus liegt dabei auf dem Modellverhalten in dem Fall, dass Vorwissen und beobachtete Daten in Konflikt stehen. Die Bayes-Inferenz ist einer der Hauptansätze zur Herleitung von statistischen Inferenzmethoden. In diesem Ansatz muss (eventuell subjektives) Vorwissen über die Modellparameter in einer sogenannten Priori-Verteilung (kurz: Priori) erfasst werden. Alle Inferenzaussagen basieren dann auf der sogenannten Posteriori-Verteilung (kurz: Posteriori), welche mittels des Satzes von Bayes berechnet wird und das Vorwissen und die Informationen in den Daten zusammenfasst. Wie eine Priori-Verteilung in der Praxis zu wählen sei, ist dabei stark umstritten. Ein großer Teil der Literatur befasst sich mit der Bestimmung von sogenannten nichtinformativen Prioris. Diese zielen darauf ab, den Einfluss der Priori auf die Posteriori zu eliminieren oder zumindest zu standardisieren. Falls jedoch nur wenige Daten zur Verfügung stehen, oder diese nur wenige Informationen in Bezug auf die Modellparameter bereitstellen, kann es hingegen nötig sein, spezifische Priori-Informationen in ein Modell einzubeziehen. Außerdem können sogenannte Shrinkage-Schätzer, die in frequentistischen Ansätzen häufig zum Einsatz kommen, als Bayes-Schätzer mit informativen Prioris angesehen werden. Wenn spezifisches Vorwissen zur Bestimmung einer Priori genutzt wird (beispielsweise durch eine Befragung eines Experten), aber die Stichprobengröße nicht ausreicht, um eine solche informative Priori zu überstimmen, kann sich ein Konflikt zwischen Priori und Daten ergeben. Dieser kann sich darin äußern, dass die beobachtete (und von eventuellen Ausreißern bereinigte) Stichprobe Parameterwerte impliziert, die aus Sicht der Priori äußerst überraschend und unerwartet sind. In solch einem Fall kann es unklar sein, ob eher das Vorwissen oder eher die Validität der Datenerhebung in Zweifel gezogen werden sollen. (Es könnten beispielsweise Messfehler, Kodierfehler oder eine Stichprobenverzerrung durch selection bias vorliegen.) Zweifellos sollte sich ein solcher Konflikt in der Posteriori widerspiegeln und eher vorsichtige Inferenzaussagen nach sich ziehen; die meisten Statistiker würden daher davon ausgehen, dass sich in solchen Fällen breitere Posteriori-Kredibilitätsintervalle für die Modellparameter ergeben. Bei Modellen, die auf der Wahl einer bestimmten parametrischen Form der Priori basieren, welche die Berechnung der Posteriori wesentlich vereinfachen (sogenannte konjugierte Priori-Verteilungen), wird ein solcher Konflikt jedoch einfach ausgemittelt. Dann werden Inferenzaussagen, die auf einer solchen Posteriori basieren, den Anwender in falscher Sicherheit wiegen. In dieser problematischen Situation können Intervallwahrscheinlichkeits-Methoden einen fundierten Ausweg bieten, indem Unsicherheit über die Modellparameter mittels Mengen von Prioris beziehungsweise Posterioris ausgedrückt wird. Neuere Erkenntnisse aus Risikoforschung, Ökonometrie und der Forschung zu künstlicher Intelligenz, die die Existenz von verschiedenen Arten von Unsicherheit nahelegen, unterstützen einen solchen Modellansatz, der auf der Feststellung aufbaut, dass die auf den Ansätzen von Kolmogorov oder de Finetti basierende übliche Wahrscheinlichkeitsrechung zu restriktiv ist, um diesen mehrdimensionalen Charakter von Unsicherheit adäquat einzubeziehen. Tatsächlich kann in diesen Ansätzen nur eine der Dimensionen von Unsicherheit modelliert werden, nämlich die der idealen Stochastizität. In der vorgelegten Dissertation wird untersucht, wie sich Mengen von Prioris für Stichproben aus Exponentialfamilien effizient beschreiben lassen. Wir entwickeln Modelle, die eine ausreichende Flexibilität gewährleisten, sodass eine Vielfalt von Ausprägungen von partiellem Vorwissen beschrieben werden kann. Diese Modelle führen zu vorsichtigen Inferenzaussagen, wenn ein Konflikt zwischen Priori und Daten besteht, und ermöglichen dennoch präzisere Aussagen für den Fall, dass Priori und Daten im Wesentlichen übereinstimmen, ohne dabei die Einsatzmöglichkeiten in der statistischen Praxis durch eine zu hohe Komplexität in der Anwendung zu erschweren. Wir ermitteln die allgemeinen Inferenzeigenschaften dieser Modelle, die sich durch einen klaren und nachvollziehbaren Zusammenhang zwischen Modellunsicherheit und der Präzision von Inferenzaussagen auszeichnen, und untersuchen Anwendungen in verschiedenen Bereichen, unter anderem in sogenannten common-cause-failure-Modellen und in der linearen Bayes-Regression. Zudem werden die in dieser Dissertation entwickelten Modelle mit anderen Intervallwahrscheinlichkeits-Modellen verglichen und deren jeweiligen Stärken und Schwächen diskutiert, insbesondere in Bezug auf die Präzision von Inferenzaussagen bei einem Konflikt von Vorwissen und beobachteten Daten.
584

The cockpit for the 21st century

Rümelin, Sonja 30 June 2014 (has links) (PDF)
Interactive surfaces are a growing trend in many domains. As one possible manifestation of Mark Weiser’s vision of ubiquitous and disappearing computers in everywhere objects, we see touchsensitive screens in many kinds of devices, such as smartphones, tablet computers and interactive tabletops. More advanced concepts of these have been an active research topic for many years. This has also influenced automotive cockpit development: concept cars and recent market releases show integrated touchscreens, growing in size. To meet the increasing information and interaction needs, interactive surfaces offer context-dependent functionality in combination with a direct input paradigm. However, interfaces in the car need to be operable while driving. Distraction, especially visual distraction from the driving task, can lead to critical situations if the sum of attentional demand emerging from both primary and secondary task overextends the available resources. So far, a touchscreen requires a lot of visual attention since its flat surface does not provide any haptic feedback. There have been approaches to make direct touch interaction accessible while driving for simple tasks. Outside the automotive domain, for example in office environments, concepts for sophisticated handling of large displays have already been introduced. Moreover, technological advances lead to new characteristics for interactive surfaces by enabling arbitrary surface shapes. In cars, two main characteristics for upcoming interactive surfaces are largeness and shape. On the one hand, spatial extension is not only increasing through larger displays, but also by taking objects in the surrounding into account for interaction. On the other hand, the flatness inherent in current screens can be overcome by upcoming technologies, and interactive surfaces can therefore provide haptically distinguishable surfaces. This thesis describes the systematic exploration of large and shaped interactive surfaces and analyzes their potential for interaction while driving. Therefore, different prototypes for each characteristic have been developed and evaluated in test settings suitable for their maturity level. Those prototypes were used to obtain subjective user feedback and objective data, to investigate effects on driving and glance behavior as well as usability and user experience. As a contribution, this thesis provides an analysis of the development of interactive surfaces in the car. Two characteristics, largeness and shape, are identified that can improve the interaction compared to conventional touchscreens. The presented studies show that large interactive surfaces can provide new and improved ways of interaction both in driver-only and driver-passenger situations. Furthermore, studies indicate a positive effect on visual distraction when additional static haptic feedback is provided by shaped interactive surfaces. Overall, various, non-exclusively applicable, interaction concepts prove the potential of interactive surfaces for the use in automotive cockpits, which is expected to be beneficial also in further environments where visual attention needs to be focused on additional tasks. / Der Einsatz von interaktiven Oberflächen weitet sich mehr und mehr auf die unterschiedlichsten Lebensbereiche aus. Damit sind sie eine mögliche Ausprägung von Mark Weisers Vision der allgegenwärtigen Computer, die aus unserer direkten Wahrnehmung verschwinden. Bei einer Vielzahl von technischen Geräten des täglichen Lebens, wie Smartphones, Tablets oder interaktiven Tischen, sind berührungsempfindliche Oberflächen bereits heute in Benutzung. Schon seit vielen Jahren arbeiten Forscher an einer Weiterentwicklung der Technik, um ihre Vorteile auch in anderen Bereichen, wie beispielsweise der Interaktion zwischen Mensch und Automobil, nutzbar zu machen. Und das mit Erfolg: Interaktive Benutzeroberflächen werden mittlerweile serienmäßig in vielen Fahrzeugen eingesetzt. Der Einbau von immer größeren, in das Cockpit integrierten Touchscreens in Konzeptfahrzeuge zeigt, dass sich diese Entwicklung weiter in vollem Gange befindet. Interaktive Oberflächen ermöglichen das flexible Anzeigen von kontextsensitiven Inhalten und machen eine direkte Interaktion mit den Bildschirminhalten möglich. Auf diese Weise erfüllen sie die sich wandelnden Informations- und Interaktionsbedürfnisse in besonderem Maße. Beim Einsatz von Bedienschnittstellen im Fahrzeug ist die gefahrlose Benutzbarkeit während der Fahrt von besonderer Bedeutung. Insbesondere visuelle Ablenkung von der Fahraufgabe kann zu kritischen Situationen führen, wenn Primär- und Sekundäraufgaben mehr als die insgesamt verfügbare Aufmerksamkeit des Fahrers beanspruchen. Herkömmliche Touchscreens stellen dem Fahrer bisher lediglich eine flache Oberfläche bereit, die keinerlei haptische Rückmeldung bietet, weshalb deren Bedienung besonders viel visuelle Aufmerksamkeit erfordert. Verschiedene Ansätze ermöglichen dem Fahrer, direkte Touchinteraktion für einfache Aufgaben während der Fahrt zu nutzen. Außerhalb der Automobilindustrie, zum Beispiel für Büroarbeitsplätze, wurden bereits verschiedene Konzepte für eine komplexere Bedienung großer Bildschirme vorgestellt. Darüber hinaus führt der technologische Fortschritt zu neuen möglichen Ausprägungen interaktiver Oberflächen und erlaubt, diese beliebig zu formen. Für die nächste Generation von interaktiven Oberflächen im Fahrzeug wird vor allem an der Modifikation der Kategorien Größe und Form gearbeitet. Die Bedienschnittstelle wird nicht nur durch größere Bildschirme erweitert, sondern auch dadurch, dass Objekte wie Dekorleisten in die Interaktion einbezogen werden können. Andererseits heben aktuelle Technologieentwicklungen die Restriktion auf flache Oberflächen auf, so dass Touchscreens künftig ertastbare Strukturen aufweisen können. Diese Dissertation beschreibt die systematische Untersuchung großer und nicht-flacher interaktiver Oberflächen und analysiert ihr Potential für die Interaktion während der Fahrt. Dazu wurden für jede Charakteristik verschiedene Prototypen entwickelt und in Testumgebungen entsprechend ihres Reifegrads evaluiert. Auf diese Weise konnten subjektives Nutzerfeedback und objektive Daten erhoben, und die Effekte auf Fahr- und Blickverhalten sowie Nutzbarkeit untersucht werden. Diese Dissertation leistet den Beitrag einer Analyse der Entwicklung von interaktiven Oberflächen im Automobilbereich. Weiterhin werden die Aspekte Größe und Form untersucht, um mit ihrer Hilfe die Interaktion im Vergleich zu herkömmlichen Touchscreens zu verbessern. Die durchgeführten Studien belegen, dass große Flächen neue und verbesserte Bedienmöglichkeiten bieten können. Außerdem zeigt sich ein positiver Effekt auf die visuelle Ablenkung, wenn zusätzliches statisches, haptisches Feedback durch nicht-flache Oberflächen bereitgestellt wird. Zusammenfassend zeigen verschiedene, untereinander kombinierbare Interaktionskonzepte das Potential interaktiver Oberflächen für den automotiven Einsatz. Zudem können die Ergebnisse auch in anderen Bereichen Anwendung finden, in denen visuelle Aufmerksamkeit für andere Aufgaben benötigt wird.
585

Övervakning – elektronisk kontroll : en jämförelse av London och Stockholm 2002-2011

Kopacz, Otto January 2012 (has links)
Syftet med denna uppsats var att främst undersöka vad för brottspreventiv effekt kameraövervakning har. Vid sidan om detta huvudsyfte skulle den personliga integriteten och de lagliga aspekterna också undersökas samt deras betydelse. Städerna London och Stockholm valdes som fokuspunkter. Kameraövervakningens tidsperiod begränsades till 2002-2011 och brottskategorierna till misshandel, rån och vandalism.Metoden med vilken arbetet genomfördes var teoretisk (litteraturbaserad). Empirin bestod därför förutom kriminalstatistik av böcker, rapporter och artiklar vilka analysen baserades på.London centrerades i arbetet eftersom att deras statistik bygger på kameraövervakning och Stockholm agerade som en kontrollmall för att verifiera eller falsifiera övervakningens brottspreventiva verkan då Stockholm inte hade någon kameraövervakningsstatistik.I resultatdelen framgick att de anmälda misshandelsbrotten i London hade minskat svagt och att de hade ökat i Stockholm. De anmälda rånen hade minskat i London och Stockholm. Londons anmälda vandalismbrott hade däremot minskat kraftigt medan de hade ökat i Stockholm. Displacement (brottsförflyttning) belystes och hur det är sammankopplat med kameraövervakningens brottspreventiva effekt. Risken för mätfel och dess uppkomst togs också upp i kritiskt ändamål.I diskussionsdelen fördes teoretiska resonemang med rational choice teorin, rutinaktivitetsteorin och CPTED-modellen. Slutsatsen som drogs var att kameraövervakning har haft en brottspreventiv effekt för alla tre brottskategorier, dock inte lika mycket för alla tre. Samtidigt fördes en kritisk diskussion om displacement (brottsförflyttning) vilket kan förekomma och dess spridning, i syfte att ifrågasätta tillförlitligheten av kameraövervakningens effekt på brottsnivåerna.
586

Recent methods from statistics and machine learning for credit scoring

Kraus, Anne 22 May 2014 (has links) (PDF)
Credit scoring models are the basis for financial institutions like retail and consumer credit banks. The purpose of the models is to evaluate the likelihood of credit applicants defaulting in order to decide whether to grant them credit. The area under the receiver operating characteristic (ROC) curve (AUC) is one of the most commonly used measures to evaluate predictive performance in credit scoring. The aim of this thesis is to benchmark different methods for building scoring models in order to maximize the AUC. While this measure is used to evaluate the predictive accuracy of the presented algorithms, the AUC is especially introduced as direct optimization criterion. The logistic regression model is the most widely used method for creating credit scorecards and classifying applicants into risk classes. Since this development process, based on the logit model, is standard in the retail banking practice, the predictive accuracy of this proceeding is used for benchmark reasons throughout this thesis. The AUC approach is a main task introduced within this work. Instead of using the maximum likelihood estimation, the AUC is considered as objective function to optimize it directly. The coefficients are estimated by calculating the AUC measure with Wilcoxon-Mann-Whitney and by using the Nelder-Mead algorithm for the optimization. The AUC optimization denotes a distribution-free approach, which is analyzed within a simulation study for investigating the theoretical considerations. It can be shown that the approach still works even if the underlying distribution is not logistic. In addition to the AUC approach and classical well-known methods like generalized additive models, new methods from statistics and machine learning are evaluated for the credit scoring case. Conditional inference trees, model-based recursive partitioning methods and random forests are presented as recursive partitioning algorithms. Boosting algorithms are also explored by additionally using the AUC as a loss function. The empirical evaluation is based on data from a German bank. From the application scoring, 26 attributes are included in the analysis. Besides the AUC, different performance measures are used for evaluating the predictive performance of scoring models. While classification trees cannot improve predictive accuracy for the current credit scoring case, the AUC approach and special boosting methods provide outperforming results compared to the robust classical scoring models regarding the predictive performance with the AUC measure. / Scoringmodelle dienen Finanzinstituten als Grundlage dafür, die Ausfallwahrscheinlichkeit von Kreditantragstellern zu berechnen und zu entscheiden ob ein Kredit gewährt wird oder nicht. Das AUC (area under the receiver operating characteristic curve) ist eines der am häufigsten verwendeten Maße, um die Vorhersagekraft im Kreditscoring zu bewerten. Demzufolge besteht das Ziel dieser Arbeit darin, verschiedene Methoden zur Scoremodell-Bildung hinsichtlich eines optimierten AUC Maßes zu „benchmarken“. Während das genannte Maß dazu dient die vorgestellten Algorithmen hinsichtlich ihrer Trennschärfe zu bewerten, wird das AUC insbesondere als direktes Optimierungskriterium eingeführt. Die logistische Regression ist das am häufigsten verwendete Verfahren zur Entwicklung von Scorekarten und die Einteilung der Antragsteller in Risikoklassen. Da der Entwicklungsprozess mittels logistischer Regression im Retail-Bankenbereich stark etabliert ist, wird die Trennschärfe dieses Verfahrens in der vorliegenden Arbeit als Benchmark verwendet. Der AUC Ansatz wird als entscheidender Teil dieser Arbeit vorgestellt. Anstatt die Maximum Likelihood Schätzung zu verwenden, wird das AUC als direkte Zielfunktion zur Optimierung verwendet. Die Koeffizienten werden geschätzt, indem für die Berechnung des AUC die Wilcoxon Statistik und für die Optimierung der Nelder-Mead Algorithmus verwendet wird. Die AUC Optimierung stellt einen verteilungsfreien Ansatz dar, der im Rahmen einer Simulationsstudie untersucht wird, um die theoretischen Überlegungen zu analysieren. Es kann gezeigt werden, dass der Ansatz auch dann funktioniert, wenn in den Daten kein logistischer Zusammenhang vorliegt. Zusätzlich zum AUC Ansatz und bekannten Methoden wie Generalisierten Additiven Modellen, werden neue Methoden aus der Statistik und dem Machine Learning für das Kreditscoring evaluiert. Klassifikationsbäume, Modell-basierte Recursive Partitioning Methoden und Random Forests werden als Recursive Paritioning Methoden vorgestellt. Darüberhinaus werden Boosting Algorithmen untersucht, die auch das AUC Maß als Verlustfunktion verwenden. Die empirische Analyse basiert auf Daten einer deutschen Kreditbank. 26 Variablen werden im Rahmen der Analyse untersucht. Neben dem AUC Maß werden verschiedene Performancemaße verwendet, um die Trennschärfe von Scoringmodellen zu bewerten. Während Klassifikationsbäume im vorliegenden Kreditscoring Fall keine Verbesserungen erzielen, weisen der AUC Ansatz und einige Boosting Verfahren gute Ergebnisse im Vergleich zum robusten klassischen Scoringmodell hinsichtlich des AUC Maßes auf.
587

Under ytan : En studie om hur detektionsgränser påverkar väntevärdesskattningar vid mätning av fosfat och kadmium i svenska vattendrag.

Norlander, Martin, Boman, Victor January 2017 (has links)
Uppsatsen ämnar utvärdera olika estimatorers egenskaper för att beräknamedelvärdesskattningar för delvis censurerad miljödata erhållen från Sveriges LantbruksUniversitet (SLU). Detta undersöks genom en simuleringsstudie i vilken data har simuleratsfrån en χ2 fördelning där censureringsgrad och frihetsgrader har varierats. Därefter har deerhållna medelvärdesskattningarna utvärderats med hjälp av estimatorns medelkvadratfel(MSE) samt bias. Vidare har medelvärdesberäkningar gjorts på erhållen data från SLU. Allasimuleringar har gjorts i R, för medelvärdesberäkningar har tilläggspaketet “Nondetects AndData Analysis for environmental data” (NADA) använts. De estimatorer som utvärderats ärMaximum Likelihood (MLE), Regression on order statistics (ROS), Kaplan-Meier samtsubstitution. Resultaten visar att MLE samt ROS ger konstant bättre MSE och bias när dataantas följa en lognormalfördelning oavsett grad av censurering samt skevhet på data än vidnormalfördelningsantagande. Vid hög skevhet på data ger substitution resultat nära det sannamedelvärdet oavsett grad av censurering. De mest väntevärdesriktiga estimatorerna finnesvara ROS under lognormalantagande samt substitution när data är skevt fördelad, för ickeskevdata rekommenderas ROS med lognormalantagande, oavsett censureringsgrad.
588

Anpassas produktrekommendationer vid finansiell rådgivning efter konsumentens riskaversion?

Seipel, Niklas, Unnebäck, Tea January 2018 (has links)
No description available.
589

En modell för väderjustering av cykelflöden / A model for weather adjustment

Månsson Vogel, Andreas, Spreco, Armin January 2009 (has links)
<p>Vectura är ett företag vars verksamhet är koncentrerad till transportinfrastruktur och deras mål är att hitta bättre lösningar för infrastrukturen. En stor del av trafikanterna i Sverige använder cykeln som transportmedel men cyklingen är i hög grad beroende av vädret som varierar hela tiden. Det varierande vädret gör det svårt att se hur cyklingen förändras över tiden och för att kunna se denna förändring behövs en modell som rensar cykelflödet från vädrets påverkan.</p><p>Syftet med denna rapport är just att utveckla en sådan modell. Denna modell ska tas fram med hjälp av dels cykelflödesdata och dels väderdata från ett antal gator i städer runt om i Sverige och ska vara tillämpbar överallt i landet.</p><p>Metoden som används för att ta fram modellen är multiplikativ tidsserieregression. Då syftet är att ta fram en rikstäckande modell måste en gemensam variabeluppsättning väljas som vi ska använda oss av när vi anpassar regressionskoefficienterna för varje gata. Detta variabelval gör vi med hjälp av</p><p>P-värden från individuella t-test och Akaikes informationskriterium. När lämpliga variabler har valts ut anpassas en separat regressionsmodell med dessa variabler för varje gata och därefter vägs betaskattningarna samman så att vi får en allmän modell. För att validera modellen utför vi en korsvalidering som går ut på att utelämna en av städerna när vi väger samman betaskattningarna och sedan testa den nya modellen på någon gata i den utelämnade staden.</p><p>Resultaten visar att modellen som vi utvecklat kan användas som en allmän modell för Sverige. Dels reducerar modellen standardavvikelsen för cykelflödet tillfredsställande och dels fungerar korsvalideringen bra. Modellen är utvecklad så att man ska kunna justera bort antingen endast vädereffekter från cykelflödet eller, utöver vädereffekter, justera bort även kalendereffekter och periodiska effekter från cykelflödet.</p>
590

Vädrets påverkan på byggarbetsplatsen

Müller, Henrik, Villamil, Jair, Andersson, Jonas January 2008 (has links)
<p>This exam report contains studies about how the weather affects the construction site from a planning and productivity perspective. In 1960’s the contractors started to build during the winter, since then the demands to obtain a good construction has been higher on both the contractor and then promoter.</p><p>In this report you will see how the different actors at the construction site handle the weather problems. By several interviews of the actors at the construction site there have been opinions about the weather situation which has been collected. </p><p>To get a wide perspective of the problem, field studies from four different construction sites been made.</p><p>Weather statistics over Halmstad is a mayor part of this report. Wind, temperature and precipitation will be presented in diagrams and tables divided over all months. The point with these tables and diagrams are ment to be a help during the projecting and timetable planning of the construction project. </p><p>In this report we came up with the following; that weather is a big negative factor on the construction site. The losses related to productivity are mayor, especially during framework. If no consideration is taken to the weather, productivity losses for one year will be significant. From interviews and weather statistics the final result has been that April and May are the most productive months of the year.</p>

Page generated in 0.0631 seconds