21 |
Ordinlärning, vokabulär och arbetsminne : en studie av barn med intellektuell funktionsnedsättning / Word Learning, Vocabulary and Working Memory : A Study with Children with Intellectual DisabilitiesHultqvist Widfors, Hanna January 2020 (has links)
I denna studie har jag administrerat ett ordinlärningstest och ett vokabulärtest för barn som har en intellektuell funktionsnedsättning. Ordinlärningstestet är baserat på en svensk anpassning av Storkel, Armbrüster & Hogan (2006) engelska ordinlärningsparadigm. Syftet var att undersöka effekterna av fonotaktisk sannolikhet och grannordstäthet på ordinlärning. Storkel et al. (2006) genomförde paradigmet ursprungligen på en grupp med vuxna och i tidigare studier då paradigmet använts på barn har det anpassats på olika sätt. Anpassningarna i denna studie har varit ökade upprepningar av orden under testningen samt att barnen har fått peka på bilder istället för att säga orden som svarsalternativ då många av deltagarna har begränsade möjligheter att utrycka sig med ord. Resultaten av vokabulärtestet och ordinlärningstestet har jämförts med typiskt utvecklade barn. Utifrån vokabulärtestets resultat så har testgruppen för barn med intellektuell funktionsnedsättning presterat lägre än barn med typisk utveckling. För framtida studier skulle ett vokabulärtest kunna utformas med mer anpassade och tydliga bilder för barn med intellektuell funktionsnedsättning. Resultaten för ordinlärningstestet med pekningar som svarsalternativ har inte kunnat ge ett fullständigt resultat utan det har endast kunnat ske visuella inspektioner av den insamlade datan. Utifrån den visuella inspektionen kunde man inte antyda något tecken på ökat lärande eller effekter av fonotaktisk sannolikhet eller grannordstäthet. Vid jämförandet med typiskt utvecklade barn antyder det att dessa barn når ett högre resultat än testgruppen med intellektuell funktionsnedsättning. Däremot har det skett intressanta beteendeobservationer under ordinlärningstestet. Det skedde spontana verbala repetitioner av orden under testningen. Antal gånger orden repeterades ökade för varje testomgång och det fanns också trender för kombinationerna hög fonotaktisk sannolikhet & hög grannordstäthet och låg fonotaktisk sannolikhet & låg grannordstäthet. För framtida forskning kan dessa resultat och hur testen administreras vara intressant för hur nya studier skulle kunna designas. / In this study, I have administered a word-learning test and a vocabulary test for children with intellectual disabilities. The word-learning test in this study is based on a swedish adaptation of Storkel, Armbrüster & Hogan (2006) english word-learning paradigm. The purpose was to investigate the effects of phonological probability and neighborhood density on word-learning. Storkel et al. (2006) originally implemented the paradigm on a group of adults and in previous studies when the paradigm was used on children it has been adapted in different ways. The adaptations in this study have been increased repetitions of the words during the testing and that the children have been allowed to point at pictures instead of saying the words as a response alternative, because many of the participants have limited opportunities to express themselves with words. The results of the vocabulary test and the word-learning test have been compared with typically developed children. Based on the results of the vocabulary test, the test group for children with intellectual disabilities performed lower than children with typical development. For future studies, a vocabulary test could be designed with more customized images for children with intellectual disabilities. The results for the word-learning test with pointing as a response alternative have not been able to give a complete result, only visual inspections of the collected data have been possible. Based on the visual inspections, there was no indication of increased learning or effects of phonological probability or neighborhood density. However, interesting behavioural observations has been observed during the word-learning test. Spontaneous verbal repetitions of the words were observed during testing. The number of times the words were repeated increased for each test session and there were also trends for an effect for the combinations high phonological probability & high neighborhood density and low phonological probability & low neighborhood density. For future research, these results and how the tests were administered may be interesting and helpful in how new studies could be designed.
|
22 |
En studie av ordinlärning med elever i årskurs 3 : Påverkan av fonotaktisk sannolikhet och grannskapstäthet på ordinlärning samt koppling till fonologisk medvetenhet / A Study on Word Learning with Pupils in Primary School Third Grade : Effects of Phonotactic Probability and Neighborhood Density on Word Learning and Connection to Phonological AwarenessHillerström, Elisabet, Stensson, Erika January 2019 (has links)
Examensarbetet bygger på tidigare forskning som visat att två egenskaper hos ord, hög/låg fonotaktisk sannolikhet och hög/låg grannskapstäthet, kan påverka ordinlärning hos vuxna och barn. I examensarbetet upprepas ett ordexperiment som tidigare genomförts i USA och Nederländerna. Syftet var att, genom en experimentell design, undersöka påverkan av fonotaktisk sannolikhet och grannskapstäthet på ordinlärningen hos 21 elever i åk 3 med typisk språkutveckling. Sambandet mellan elevernas ordinlärning och vokabulär, fonologisk medvetenhet och/eller verbalt arbetsminne undersöktes också. Varje elev genomförde ett ordexperiment i en sagokontext med inlärning av 16 nonord som representerar svenska substantiv. De verbalt och visuellt förmedlade orden har skapats utifrån den svenska fonotaxen. Eleven mötte orden upprepade gånger och skulle genom sagans olika episoder lära in och reproducera dessa. Denna studies resultat är i linje med tidigare resultat från USA och Nederländerna. Eleverna genomförde också ett test av ordförrådets bredd, PPVT-IV, fonologisk medvetenhet och verbalt arbetsminne, NEPSY-II. Statistisk analys (ANOVA) visade att repetition förbättrade inlärningen. En korrelationsanalys visade ett starkt positivt samband mellan antalet inlärda ord och fonologisk medvetenhet. Då det fanns en effekt av hög/låg fonotaktisk sannolikhet i interaktion med hög/ låg grannskapstäthet hos elever med typisk språkutveckling, kan det i vidare forskning vara av intresse att undersöka om denna effekt även gäller för elever med språkstörning och/eller dyslexi. / This student thesis is based on former research which claims that certain characteristics of words, high/low phonotactic probability and high/low neighbourhood density, may affect word learning in adults and children. In this thesis a word experiment, formerly used in the USA and the Netherlands, was replicated. The aim was through experimental design, examine the impact of phonotactic probability and neighbourhood density on word learning in 21 pupils in grade 3 with typical language development. Correlations between pupils’ word learning and vocabulary, phonological awareness and/or verbal short-term memory were also examined. Each pupil performed a word experiment through a story context where 16 pseudo words representing Swedish nouns were learned. The verbally and visually presented words have been created using Swedish phonotactics. The student encountered the words repeatedly and was tasked to during the different episodes learn and produce the words. The result of this study is in line with former studies in the USA and the Netherlands. The pupils also performed tests of vocabulary, PPVT-IV, phonological awareness and verbal short-term memory, NEPSY-II. Statistical analyses (ANOVA) suggested that repeated training improves learning. Correlation analysis indicated a strong positive correlation between number of words learned and phonological awareness. Since there was an effect of high/low phonotactic probability combined with high/low neighbourhood density in pupils with typical language development, future research may examine this effect in pupils with developmental language disorder and/or dyslexia.
|
23 |
Mekanismer som påverkar vid ordinlärning - en komplex process : En experimentell studie i årskurs 1 kring påverkansfaktorerna fonotaktisk sannolikhet och grannordstäthet / Mechanisms that Affect Word Learning - a Complex Process : An Experimental Study of the Effect of Phonotactic Probability and Neighbourhood Density in Year 1Svernlöv, Carina, Thurfjell, Karin January 2020 (has links)
Ordförrådet är en central del i språkförståelsen. Forskning visar att svårigheter inom detta område kan leda till sämre förutsättningar att utvecklas kunskapsmässigt i skolan. Därför är det betydelsefullt att speciallärarens arbete är evidensbaserat för att främja och utveckla ordförrådet hos eleverna. Ordinlärning är ett komplext område med många ingående delar. Två variabler som har undersökts i internationell forskning för att få kunskap om ordinlärningsprocessen är fonotaktisk sannolikhet och grannordstäthet. Att brister i fonologisk medvetenhet försvårar ordinlärning har också uppmärksammats. I vårt arbete utfördes ett ordinlärningsexperiment och tre språkliga/kognitiva tester med 16 elever i årskurs 1 med typisk utveckling. I experimentet varierades ords fonotaktiska sannolikhet och grannordstäthet i syfte att undersöka vilken roll dessa variabler hade vid ordinlärning. Eleverna fick lyssna på två olika berättelser där 16 non-ord presenterades. Målet var att försöka lära sig dessa ord. Vi undersökte också, genom ett test i fonologisk medvetenhet, hur sambandet såg ut mellan ordinlärning och fonologisk medvetenhet. I studien uppnås inte ett signifikant resultat för variablernas påverkan vid ordinlärning. Däremot kan en ordinlärningsprogression säkerställas allteftersom exponeringarna för non-orden ökar. Korrelation mellan ordinlärning och fonologisk medvetenhet påvisas inte. Studiens resultat beror på att golveffekter uppnås i samband med experimentet. Eleverna lär sig få ord, vilket beror på att testet är för svårt. Framtida forskning bör vid liknande experiment med aktuell åldersgrupp beakta och överväga ett större urval, öka antalet exponeringar av målorden i testsituationen samt ändra rättningsförfarandet
|
24 |
Algorithm that creates productcombinations based on customerdata analysis : An approach with Generalized Linear Modelsand Conditional Probabilities / Algoritm som skapar produktkombinationer baserad på kunddata analys : En metod med generaliserade linjära modeller och betingade sannolikheterUyanga, Enkhzul, Wang, Lida January 2017 (has links)
This bachelor’s thesis is a combined study of applied mathematical statistics and industrial engineering and management implemented to develop an algorithm which creates product combinations based on customer data analysis for eleven AB. Mathematically, generalized linear modelling, combinatorics and conditional probabilities were applied to create sales prediction models, generate potential combinations and calculate the conditional probabilities of the combinations getting purchased. SWOT analysis was used to identify which factors can enhance the sales from an industrial engineering and management perspective. Based on the regression analysis, the study showed that the considered variables, which were sales prices, brands, ratings, purchase countries, purchase months and how new the products are, affected the sales amounts of the products. The algorithm takes a barcode of a product as an input and checks whether if the corresponding product type satisfies the requirements of predicted sales amount and conditional probability. The algorithm then returns a list of possible product combinations that fulfil the recommendations. / Detta kandidatexamensarbete är en kombinerad studie av tillämpad matematisk statistik och industriell ekonomisk implementering för att utveckla en algoritm som skapar produktkombinationer baserad på kunddata analys för eleven AB. I den matematiska delen tillämpades generaliserade linjära modeller, kombinatorik och betingade sannolikheter för att skapa prediktionsmodeller för försäljningsantal, generera potentiella kombinationer och beräkna betingade sannolikheter att kombinationerna bli köpta. SWOT-analys användes för att identifiera vilka faktorer som kan öka försäljningen från ett industriell ekonomiskt perspektiv. Baserat på regressionsanalysen, studien har visat att de betraktade variablerna, som var försäljningspriser, varumärken, försäljningsländer, försäljningsmånader och hur nya produkterna är, påverkade försäljningsantalen på produkterna. Algoritmen tar emot en streckkod av en produkt som inmatning och kontrollerar om den motsvarande produkttypen uppfyller kraven för predikterad försäljningssumma och betingad sannolikhet. Algoritmen returnerar en lista av alla möjliga kombinationer på produkter som uppfyller rekommendationerna.
|
25 |
Deep Learning Approach for Time- to-Event Modeling of Credit Risk / Djupinlärningsmetod för överlevnadsanalys av kreditriskmodelleringKazi, Mehnaz, Stanojlovic, Natalija January 2022 (has links)
This thesis explores how survival analysis models performs for default risk prediction of small-to-medium sized enterprises (SME) and investigates when survival analysis models are preferable to use. This is examined by comparing the performance of three deep learning models in a survival analysis setting, a traditional survival analysis model Cox Proportional Hazards, and a traditional credit risk model logistic regression. The performance is evaluated by three metrics; concordance index, integrated Brier score and ROC-AUC. The models are trained on financial data from Swedish SME holding profit and loss statement and balance sheet results. The dataset is divided into two feature sets: a smaller and a larger, additionally the features are binned. The results show that DeepHit and Logistic Hazard performed the best with the three metrics in mind. In terms of the AUC score all three deep learning survival models generally outperform the logistic regression model. The Cox Proportional Hazards (Cox PH) showed worse performance than the logistic regression model on the non-binned feature sets while having more comparable results in the case where the data was binned. In terms of the concordance index and integrated Brier score the Cox Proportional Hazards model consistently performed the worst out of all survival models. The largest significant performance gain for the concordance index and AUC score was however seen by the Cox PH model when binning was applied to the larger feature set. The concordance index went from 0.65 to 0.75 and the test AUC went from 76.56% to 83.91% for the larger set to larger dataset with binned features. The main conclusions is that the neural networks models did outperform the traditional models slightly and that binning had a great impact on all models, but in particular for the Cox PH model. / Det här examensarbete utreder hur modeller inom överlevnadsanalys presterar för kreditriskprediktion på små och medelstora företag (SMF) och utvärderar när överlevnadsanalys modeller är att föredra. För att besvara frågan jämförs prestandan av tre modeller för djupinlärning i en överlevnadsanalysmiljö, en traditionell överlevnadsanalys modell: Cox Proportional Hazards och en traditionell kreditriskmodell: logistik regression. Prestandan har utvärderats utifrån tre metriker; concordance index, integrated Brier score och AUC. Modellerna är tränade på finansiell data från små och medelstora företag som innefattar resultaträkning och balansräkningsresultat. Datasetet är fördelat i ett mindre variabelset och ett större set, dessutom är variablerna binnade. Resultatet visar att DeepHit och Logistic Hazard presterar bäst baserat på alla metriker. Generellt sett är AUC måttet högre för alla djupinlärningsmodeller än för den logistiska regressionen. Cox Proportional Hazards (Cox PH) modellen presterar sämre för variabelset som inte är binnade men får jämförelsebar resultat när datan är binnad. När det gäller concordance index och integrated Brier score så har Cox PH överlag sämst resultat utav alla överlevnadsmodeller. Den största signifikanta förbättringen i resultatet för concordance index och AUC ses för Cox PH när datan binnas för det stora variabelsetet. Concordance indexet gick från 0.65 till 0.75 och test AUC måttet gick från 76.56% till 83.91% för det större variabel setet till större variabel setet med binnade variabler. De huvudsakliga slutsatserna är att de neurala nätverksmodeller presterar något bättre än de traditionella modellerna och att binning är mycket gynnsam för alla modeller men framförallt för Cox PH.
|
26 |
Undermining Derk Pereboom’s Hard Incompatibilist Position Against Agent-causation : A Metatheoretical Work on the Topic of Metaphysics and Metaethics / Underminering av Derk Perebooms hårda inkompatibilistiska position mot agentkausalitet : ett metateoretiskt arbete på temat metafysik och metaetikLundgren, Björn January 2013 (has links)
The author has attempted a dubbleedged purpose, as indicated by the title. The author firstly deals with Pereboom; begining with his so-called ‘wild coincidence’-argument, by which Pereboom claims agent-causation to be unlikely. The author argues that this argument lacks both scope and strenght. The author then deals with the question of compatiblity between physics and agent-causation as related to Pereboom’s basic problematization; whether agent-causation would or would not diverge from what is expected (from any other event) given our best physical theories. This results in a strong criticism against Pereboom’s whole position, and a positive argument for agent-causation. After the first purpose is achieved, the author turns to the purpose indicated by the subtitle. The author presents a general criticism against the field of metaethics concerning the question of free will. The author also makes suggestions for a possible solution. / Författaren har, som titeln indikerar, tagit på sig ett tveeggat problem. Först hanterar författaren Pereboom; och börjar med hans så kallade ‘wild coincidence’-argument, med vilket Pereboom hävdar att agentkausalitet är osannlik. Författaren menar att detta argument saknar både omfång och styrka. Författaren hanterar sedan frågan om kompatibilitet mellan fysik och agentkausalitet, så som den är relaterad till Perebooms grundläggande problematisering; huruvida agentkausalitet skulle eller inte skulle avvika från vad som vi förväntar oss (givet någon annan händelse) från våra bästa fysiska teorier. Detta resulterar i en stark kritik mot Perebooms hela position, och ett positivt argument för agentkausalitet. Efter att det första syftet är avklarat, så vänder sig författaren till undertitelns syfte. Författaren presenterar en generell kritik mot fältet metaetik avseende frågan om fri vilja. Författaren föreslår även en möjlig lösning på problemet.
|
27 |
Advertorials; an effective or destructive marketing practice? : The effect of advertorial deception on irritation, credibility, and attitude, both for the advertiser and the advertising mediumBergqvist, Jimmy, Ingelstedt, Jens January 2010 (has links)
The thesis explores advertorials, advertising made to look like editorial content, from a consumer behaviour perspective. Introduction Consumers are exposed to a staggering amount of advertisements each day. This so-called advertising clutter makes it difficult for marketers to reach the consumer. Therefore, in the late 1980’s marketers started to use unconventional ways of advertising. One of these was the use of advertorials, a form of advertising that borrows the appearance and other features from editorial material. Problem discussion Since advertorials are made to look like editorial material, but is in reality an advertisement, it is of interest for researchers and practicing marketers alike to know what effects using them has on the brand. Previous research differ in the view on advertorials; some claim that it is a good way to advertise as it is seen as less intrusive and irritating, while others say that the deceptiveness makes people irritated. Purpose Through a quantitative case study of Aftonbladet.se, a Swedish news website, from a consumer perspective analyze the effects the level of deception of online advertorials have on 1) brand credibility, and 2) the irritation level, on both the medium and the advertiser. Also, 3) to thereafter examine if possible alterations in irritation and brand credibility trigger changes in brand attitudes towards medium and advertiser. Background Newspapers have long been dependent on the revenue from advertisement sales, even more so since the emergence of free newspapers and news web sites. With this in mind, the importance of advertorials stands clear. In the on-line world, where readers jump from article to article and from site to site, the advertorials play an important role in “catching” the reader and make him/her stay on the site. Moreover, advertorials is one of the formats of on-line advertising which commands the highest revenues. Frame of reference The on-line context provides additional ways of deceiving a consumer, in comparison with print media. Therefore, the frame of reference focuses on previous research on the effects the deception can have with a consumer and the perception of the brands included; irritation, brand credibility, brand attitude, likeliness to return to site, and advertising avoidance. For later testing, 11 hypotheses were defined. Method The study uses a mixed method approach, with both quantitative and qualitative data. An experiment, with one control group and two different manipulations formed the basis for the data collection. 19 out of the 103 participants in the quantitative study were asked to participate in the qualitative study as well. Analysis As the distribution of the data was found not to be normal, the Kruskal-Wallis test was used to test the hypotheses. All hypotheses but one were accepted. Further, to explore the relationship between variables, hierarchical multiple regression analysis was also performed. Conclusion It was not possible to prove that a higher level of blend-in decreased credibility of any of the two brands, neither does induce more irritation. It was also not possible to discern a statistically significant effect on the attitude towards the brands, likeliness to return to Aftonbladet.se, or future avoidance of adverts by Volvo. However, several of the participants of the interviews expressed concern over the long-term effects the use of advertorials may have on the brand of Volvo. Further, advertorials are definitely highly deceptive, and almost half of the respondents did not realize they were reading an advert even at the lowest level of blend-in, which is currently used by Aftonbladet.se and Volvo. / Avhandlingen utforskar advertorials, reklam kommer att se ut som redaktionellt innehåll, från en konsument beteende perspektiv. Introduktion Konsumenter exponeras dagligen för oerhörda mängder reklam. Detta gör det svårt för marknadsförare att nå konsumenten. Sedan slutet av 1980-talet har vissa marknadsförare därmed börjat använda okonventionella metoder för reklam. En av dessa är användandet av ”dolda annonser”, en form av reklam som lånar utseende och andra funktioner för att smälta in med redaktionellt material i tidningar, på webbsidor och så vidare. Problemdiskussion Eftersom ”dolda annonser” är gjorda för att likna redaktionellt material, men i själva verket är en annonser är det av intresse för både forskare och praktiserande marknadsförare att veta effekterna användandet har på deltagande företags varumärken. Tidigare forskning skiljer sig i synen på dessa ”dolda annonser”, vissa hävdar att det är ett bra sätt att göra reklam, eftersom det ses som mindre påträngande och irriterande, medan andra säger att dess vilseledande natur faktiskt gör människor uppretade. Syfte Genom en kvantitativ fallstudie av Aftonbladet.se, en svensk nyhets-site, från ett konsumentperspektiv analysera effekterna på 1) varumärket trovärdighet, och 2) irritationsnivån, både på annonsorganet och annonsören, när ”dolda annonser” smälter in mer med redaktionellt innehåll. Dessutom, 3) att därefter undersöka om eventuella ändringar i irritation och varumärkestrovärdighet leder till förändringar i attityd mot annonsorganet och annonsören. Bakgrund Tidningar har länge varit beroende av intäkterna från annonsförsäljning. I takt med att framväxten av gratistidningar och nyhets-siter har försvårat marknaden har ”dolda annonser” blivit en allt viktigare inkomstkälla. I den elektroniska världen, där läsare kan hoppa från artikel till artikel och från plats till plats, spelar ”dolda annonser” en viktig roll i att fånga läsaren. Referensram Online-kontextet ger större möjligheter att vilseleda konsumenten i jämförelse med tryckta medier. Därför är den teoretiska tungdpunkten lagd på tidigare forskning om effekterna vilseledande marknadsföring kan ha på en konsuments uppfattning av deltagande varumärken vad gäller irritationsnivå, varumärkestrovärdighet, attityd, sannolikhet att återvända till webbplats, samt reklamundvikande. Ur tidigare forskning konstruerades 11 hypoteser för senare prövning. Metod Studien använder en blandad metodstrategi, med både kvantitativa och kvalitativa data. Ett experiment med en kontrollgrupp och två olika manipulationer låg till grund för insamlingen av uppgifter. 19 av de 103 deltagarna i den kvantitativa delen ombads att delta i den kvalitativa studien med. Analys Eftersom fördelningen inte var helt normalt distribuerad användes Kruskal-Wallis test för att testa hypoteserna. Resultatet var att alla hypoteser utom en godkändes. Relationen mellan variabler undersöktes också genom hierarkisk multipel regressionsanalys. Slutsats Det var inte möjligt att bevisa att annonser som smälter in mer leder till minskad trovärdighet för någon av de båda varumärkena, och inte heller lockar fram mer irritation. Det var inte heller möjligt att urskilja en statistiskt signifikant effekt på attityd gentemot varumärken, sannolikheten att återvända till Aftonbladet.se, eller framtida undvikande av annonser av Volvo. Dock uttryckte flera av deltagarna i intervjuerna oro över de långsiktiga effekterna användning av ”dolda annonser” kan ha på varumärket Volvo. Vidare är definitivt annonserna mycket vilseledande, och nära hälften insåg inte de läste en annons även på nivån som används av Aftonbladet.se och Volvo idag.
|
28 |
Modeling credit risk for an SME loan portfolio: An Error Correction Model approachLindgren, Jonathan January 2017 (has links)
Sedan den globala finanskrisen 2008 har flera stora regelverk införts för att säkerställa att banker hanterar risker på sunt sätt. Bland dessa regelverk är Basel II som infört kapitalkrav för kreditrisk som baseras på Sannolikhet för Fallissemang och Förlust Givet Fallissemang. Basel II Advanced Internal-Based Approach ger banker möjligheten att skatta dessa riskmått för enskilda portföljer och göra interna kreditriskvärderingar. I överensstämmelse med Advanced Internal-Based-rating undersöker denna uppsats användningen av en Error Correction Model för modellering av Sannolikhet för Fallissemang. En modell som visat sin styrka inom stresstestning. Vidare implementeras en funktion för Förlust Givet Fallissemang som binder samman Sannolikhet för Fallissemang och Förlust Givet Fallissemang med systematisk risk. Error Correction Modellen modellerar Sannolikhet för Fallissemang av en SME-portfölj från en av de "fyra stora" bankerna i Sverige. Modellen utvärderas och stresstestas med Europeiska Bankmyndighetens stresstestscenario 2016 och analyseras, med lovande resultat. / Since the global financial crisis of 2008, several big regulations have been implemented to assure that banks follow sound risk management. Among these are the Basel II Accords that implement capital requirements for credit risk. The core measures of credit risk evaluation are the Probability of Default and Loss Given Default. The Basel II Advanced Internal-Based-Rating Approach allows banks to model these measures for individual portfolios and make their own evaluations. This thesis, in compliance with the Advanced Internal-Based-rating approach, evaluates the use of an Error Correction Model when modeling the Probability of Default. A model proven to be strong in stress testing. Furthermore, a Loss Given Default function is implemented that ties Probability of Default and Loss Given Default to systematic risk. The Error Correction Model is implemented on an SME portfolio from one of the "big four" banks in Sweden. The model is evaluated and stress tested with the European Banking Authority's 2016 stress test scenario and analyzed, with promising results.
|
29 |
Imputation of Missing Data with Application to Commodity Futures / Imputation av saknad data med tillämpning på råvaruterminerÖstlund, Simon January 2016 (has links)
In recent years additional requirements have been imposed on financial institutions, including Central Counterparty clearing houses (CCPs), as an attempt to assess quantitative measures of their exposure to different types of risk. One of these requirements results in a need to perform stress tests to check the resilience in case of a stressed market/crisis. However, financial markets develop over time and this leads to a situation where some instruments traded today are not present at the chosen date because they were introduced after the considered historical event. Based on current routines, the main goal of this thesis is to provide a more sophisticated method to impute (fill in) historical missing data as a preparatory work in the context of stress testing. The models considered in this paper include two methods currently regarded as state-of-the-art techniques, based on maximum likelihood estimation (MLE) and multiple imputation (MI), together with a third alternative approach involving copulas. The different methods are applied on historical return data of commodity futures contracts from the Nordic energy market. By using conventional error metrics, and out-of-sample log-likelihood, the conclusion is that it is very hard (in general) to distinguish the performance of each method, or draw any conclusion about how good the models are in comparison to each other. Even if the Student’s t-distribution seems (in general) to be a more adequate assumption regarding the data compared to the normal distribution, all the models are showing quite poor performance. However, by analysing the conditional distributions more thoroughly, and evaluating how well each model performs by extracting certain quantile values, the performance of each method is increased significantly. By comparing the different models (when imputing more extreme quantile values) it can be concluded that all methods produce satisfying results, even if the g-copula and t-copula models seems to be more robust than the respective linear models. / På senare år har ytterligare krav införts för finansiella institut (t.ex. Clearinghus) i ett försök att fastställa kvantitativa mått på deras exponering mot olika typer av risker. Ett av dessa krav innebär att utföra stresstester för att uppskatta motståndskraften under stressade marknader/kriser. Dock förändras finansiella marknader över tiden vilket leder till att vissa instrument som handlas idag inte fanns under den dåvarande perioden, eftersom de introducerades vid ett senare tillfälle. Baserat på nuvarande rutiner så är målet med detta arbete att tillhandahålla en mer sofistikerad metod för imputation (ifyllnad) av historisk data som ett förberedande arbete i utförandet av stresstester. I denna rapport implementeras två modeller som betraktas som de bäst presterande metoderna idag, baserade på maximum likelihood estimering (MLE) och multiple imputation (MI), samt en tredje alternativ metod som involverar copulas. Modellerna tillämpas på historisk data förterminskontrakt från den nordiska energimarkanden. Genom att använda väl etablerade mätmetoder för att skatta noggrannheten förrespektive modell, är det väldigt svårt (generellt) att särskilja prestandan för varje metod, eller att dra några slutsatser om hur bra varje modell är i jämförelse med varandra. även om Students t-fördelningen verkar (generellt) vara ett mer adekvat antagande rörande datan i jämförelse med normalfördelningen, så visar alla modeller ganska svag prestanda vid en första anblick. Däremot, genom att undersöka de betingade fördelningarna mer noggrant, för att se hur väl varje modell presterar genom att extrahera specifika kvantilvärden, kan varje metod förbättras markant. Genom att jämföra de olika modellerna (vid imputering av mer extrema kvantilvärden) kan slutsatsen dras att alla metoder producerar tillfredställande resultat, även om g-copula och t-copula modellerna verkar vara mer robusta än de motsvarande linjära modellerna.
|
30 |
Predicting Subprime Customers' Probability of Default Using Transaction and Debt Data from NPLs / Predicering av högriskkunders sannolikhet för fallissemang baserat på transaktions- och lånedata på nödlidande lånWong, Lai-Yan January 2021 (has links)
This thesis aims to predict the probability of default (PD) of non-performing loan (NPL) customers using transaction and debt data, as a part of developing credit scoring model for Hoist Finance. Many NPL customers face financial exclusion due to default and therefore are considered as bad customers. Hoist Finance is a company that manages NPLs and believes that not all conventionally considered subprime customers are high-risk customers and wants to offer them financial inclusion through favourable loans. In this thesis logistic regression was used to model the PD of NPL customers at Hoist Finance based on 12 months of data. Different feature selection (FS) methods were explored, and the best model utilized l1-regularization for FS and predicted with 85.71% accuracy that 6,277 out of 27,059 customers had a PD between 0% to 10%, which support this belief. Through analysis of the PD it was shown that the PD increased almost linearly with respect to an increase in either debt quantity, original total claim amount or number of missed payments. The analysis also showed that the payment behaviour in the last quarter had the most predictive power. At the same time, from analysing the type II error it was shown that the model was unable to capture some bad payment behaviour, due to putting to large emphasis on the last quarter. / Det här examensarbetet syftar till att predicera sannolikheten för fallissemang för nödlidande lånekunder genom transaktions- och lånedata. Detta som en del av kreditvärdighetsmodellering för Hoist Finance. På engelska kallas sannolikheten för fallissemang för "probability of default" (PD) och nödlidande lån kallas för "non-performing loan" (NPL). Många NPL-kunder står inför ekonomisk uteslutning på grund av att de konventionellt betraktas som kunder med dålig kreditvärdighet. Hoist Finance är ett företag som förvaltar nödlidande lån och påstår att inte alla konventionellt betraktade "dåliga" kunder är högrisk kunder. Därför vill Hoist Finance inkludera dessa kunder ekonomisk genom att erbjuda gynnsamma lån. I detta examensarbetet har Logistisk regression används för att predicera PD på nödlidande lånekunder på Hoist Finance baserat på 12 månaders data. Olika metoder för urval av attribut undersöktes och den bästa modellen utnyttjade lasso för urval. Denna modell predicerade med 85,71 % noggrannhet att 6 277 av 27 059 kunder har en PD mellan 0 % till 10 %, vilket stödjer påståendet. Från analys av PD visade det sig att PD ökade nästan linjärt med avseende på ökning i antingen kvantitet av lån, det ursprungliga totala lånebeloppet eller antalet missade betalningar. Analysen visade också att betalningsbeteendet under det sista kvartalet hade störst prediktivt värde. Genom analys av typ II-felet, visades det sig samtidigt att modellen hade svårigheter att fånga vissa dåliga betalningsbeteende just på grund av att för stor vikt lades på det sista kvartalet.
|
Page generated in 0.0436 seconds