• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 61
  • 18
  • 14
  • 14
  • 13
  • 6
  • 6
  • 4
  • 4
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 240
  • 86
  • 82
  • 65
  • 43
  • 36
  • 36
  • 32
  • 28
  • 28
  • 26
  • 26
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Comparison of the 1st and 2nd order Lee–Carter methods with the robust Hyndman–Ullah method for fitting and forecasting mortality rates

Willersjö Nyfelt, Emil January 2020 (has links)
The 1st and 2nd order Lee–Carter methods were compared with the Hyndman–Ullah method in regards to goodness of fit and forecasting ability of mortality rates. Swedish population data was used from the Human Mortality Database. The robust estimation property of the Hyndman–Ullah method was also tested with inclusion of the Spanish flu and a hypothetical scenario of the COVID-19 pandemic. After having presented the three methods and making several comparisons between the methods, it is concluded that the Hyndman–Ullah method is overall superior among the three methods with the implementation of the chosen dataset. Its robust estimation of mortality shocks could also be confirmed.
232

La adopción de tecnología en los invernaderos hortícolas mediterráneos

García Martínez, María del Carmen 25 November 2009 (has links)
En la horticultura intensiva española la mayor parte de las exportaciones procede de los cultivos de invernadero, localizados en Almería, Murcia y Alicante, donde se ha centrado el presente estudio. Actualmente la posición competitiva no presenta amenazas muy graves pero tampoco muestra una etapa creciente. Exportaciones y precios soportan la competencia de otros países del área mediterránea, con los cuales España debe competir en capital y en tecnología elevando el nivel de equipamiento de los invernaderos. Ante unas exigencias de reestructuración de las instalaciones actuales, no aplazables, se plantea la presente tesis con el fin de conocer el estado actual de la tecnología y su evolución y, además, las características de las explotaciones y la actitud de sus titulares respecto a las innovaciones necesarias. Las fuentes de información se han basado en una toma de precios en origen del tomate y pimiento, como principales productos hortícolas, y en una encuesta, realizada en 242 explotaciones, mediante muestreo proporcional estratificado, en las zonas de El Ejido (Almería), Valle del Guadalentín y Campo de Cartagena (Murcia) y Sur de Alicante. El análisis de la información tuvo una primera parte dedicada a los precios, con el cálculo de la tendencia y la estacionalidad y la aplicación de modelos ARIMA. La finalidad ha sido conocer la evolución de las rentas de los productores, efectuar predicciones, y establecer una relación entre los precios y la tecnología adoptable. El tratamiento de los datos de la encuesta con sus resultados comprende la mayor parte del contenido del trabajo. Se aplicó el análisis estadístico univariante a las características estructurales de explotaciones e invernaderos y el bivariante, con contraste de independencia, para determinar relaciones de interés entre los factores que influyen en los procesos de innovación. / García Martínez, MDC. (2009). La adopción de tecnología en los invernaderos hortícolas mediterráneos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6472 / Palancia
233

Dolování z dat v jazyce Python / Data Mining with Python

Šenovský, Jakub January 2017 (has links)
The main goal of this thesis was to get acquainted with the phases of data mining, with the support of the programming languages Python and R in the field of data mining and demonstration of their use in two case studies. The comparison of these languages in the field of data mining is also included. The data preprocessing phase and the mining algorithms for classification, prediction and clustering are described here. There are illustrated the most significant libraries for Python and R. In the first case study, work with time series was demonstrated using the ARIMA model and Neural Networks with precision verification using a Mean Square Error. In the second case study, the results of football matches are classificated using the K - Nearest Neighbors, Bayes Classifier, Random Forest and Logical Regression. The precision of the classification is displayed using Accuracy Score and Confusion Matrix. The work is concluded with the evaluation of the achived results and suggestions for the future improvement of the individual models.
234

Portfolio Risk Modelling in Venture Debt / Kreditriskmodellering inom Venture Debt

Eriksson, John, Holmberg, Jacob January 2023 (has links)
This thesis project is an experimental study on how to approach quantitative portfolio credit risk modelling in Venture Debt portfolios. Facing a lack of applicable default data from ArK and publicly available sets, as well as seeking to capture companies that fail to service debt obligations before defaulting per se, we present an approach to risk modeling based on trends in revenue. The main framework revolves around driving a Monte Carlo simulation with Copluas to predict future revenue scenarios across a portfolio of early-stage technology companies. Three models for a random Gaussian walk, a Linear Dynamic System and an Autoregressive Integrated Moving Average (ARIMA) time series are implemented and evaluated in terms of their portfolio Value-at-Risk influence. The model performance confirms that modeling portfolio risk in Venture Debt is challenging, especially due to lack of sufficient data and thus a heavy reliance on assumptions. However, the empirical results for Value-at-Risk and Expected Shortfall are in line with expectations. The evaluated portfolio is still in an early stage with a majority of assets not yet in their repayment period and consequently the spread of potential losses within one year is very tight. It should further be recognized that the scope in terms of explanatory variables for sales and model complexities has been narrowed and simplified for computational benefits, transparency and communicability. The main conclusion drawn is that alternative approaches to model Venture Debt risk is fully possible, and should improve in reliability and accuracy with more data feeding the model. For future research it is recommended to incorporate macroeconomic variables as well as similar company analysis to better capture macro, funding and sector conditions. Furthermore, it is suggested to extend the set of financial and operational explanatory variables for sales through machine learning or neural networks. / Detta examensarbete är en experimentell studie för kvantitativ modellering av kreditrisk i Venture Debt-portföljer. Givet en brist på tillgänlig konkurs-data från ArK samt från offentligt tillgängliga databaser i kombination med ambitionen att inkludera företag som misslyckas med skuldförpliktelser innan konkurs per se, presenterar vi en metod för riskmodellering baserad på trender i intäkter. Ramverket för modellen kretsar kring Monte Carlo-simulering med Copluas för att estimera framtida intäktsscenarier över en portfölj med tillväxtbolag inom tekniksektorn. Tre modeller för en random walk, ett linjärt dynamiskt system och ARIMA- tidsserier implementeras och utvärderas i termer av deras inflytande på portföljens Value-at- Risk. Modellens prestationer bekräftar att modellering av portföljrisk inom Venture Debt är utmanande, särskilt på grund av bristen på tillräckliga data och därmed ett stort beroende av antaganden. Dock är de empiriska resultaten för Value-at-Risk och Expected Shortfall i linje med förväntningarna. Den utvärderade portföljen är fortfarande i ett tidigt skede där en majoritet av tillgångarna fortfarande befinner sig i en amorteringsfri period och följaktligen är spridningen av potentiella förluster inom ett år mycket snäv. Det bör vidare tillkännages att omfattningen i termer av förklarande variabler för intäkter och modellkomplexitet har förenklats för beräkningsfördelar, transparens och kommunicerbarhet. Den främsta slutsatsen som dras är att alternativa metoder för att modellera risker inom Venture Debt är fullt möjliga och bör förbättras i tillförlitlighet och precision när mer data kan matas in i modellen. För framtida arbete rekommenderas det att inkorporera makroekonomiska variabler samt analys av liknande bolag för att bättre fånga makro-, finansierings- och sektorsförhållanden. Vidare föreslås det att utöka uppsättningen av finansiella och operationella förklarande variabler för intäkter genom maskininlärning eller neurala nätverk.
235

Currency Rollercoaster : Trade With Exchange Rate Volatility

Andersson, Felicia, Knobe Fredin, Oscar January 2024 (has links)
This essay examines the relationship between exchange rate volatility, estimated using a GARCH model, and level of trade for Sweden and Finland. The data used was collected from Refinitive Eikon Datastream with monthly observations for the time period January 2005 - December 2022. The obtained results indicate that the volatility of the Swedish Krona and Euro positively increases the level of trade for Sweden respectively Finland according to the ARDL model. However, while examining different time perspectives the conclusions resulted in inconclusiveness for the countries and perspectives. The ARDL bounds test for Sweden corresponded with inconclusive results regarding a possible positive long term relationship between SEKs exchange rate volatility and level of trade. Furthermore, the Granger causality test did not state a short term relationship between the two variables for Sweden nor did it state a reversed relationship. On the other hand, for Finland, the ARDL bounds test and Granger causality test denied both a long term and short term positive relationship between the EURs exchange rate volatility and level of trade for Finland. However, for Finland a reversed Granger causality test was shown indicating that the level of trade has an impact on the volatility of the EURs exchange rate.
236

[en] ANALYSIS TECHNIQUES FOR CONTROLLING ELECTRIC POWER FOR HIGH FREQUENCY DATA: APPLICATION TO THE LOAD FORECASTING / [pt] ANÁLISE DE TÉCNICAS PARA CONTROLE DE ENERGIA ELÉTRICA PARA DADOS DE ALTA FREQUÊNCIA: APLICAÇÃO À PREVISÃO DE CARGA

JULIO CESAR SIQUEIRA 08 January 2014 (has links)
[pt] O objetivo do presente trabalho é o desenvolvimento de um algoritmo estatístico de previsão da potência transmitida pela usina geradora termelétrica de Linhares, localizada no Espírito Santo, medida no ponto de entrada da rede da concessionária regional, a ser integrado em plataforma composta por sistema supervisório em tempo real em ambiente MS Windows. Para tal foram comparadas as metodologias de Modelos Arima(p,d,q), regressão usando polinômios ortogonais e técnicas de amortecimento exponencial para identificar a mais adequada para a realização de previsões 5 passos-à-frente. Os dados utilizados são provenientes de observações registradas a cada 5 minutos, contudo, o alvo é produzir estas previsões para observações registradas a cada 5 segundos. Os resíduos estimados do modelo ajustado foram analisados via gráficos de controle para checar a estabilidade do processo. As previsões produzidas serão usadas para subsidiar decisões dos operadores da usina, em tempo real, de forma a evitar a ultrapassagem do limite de 200.000 kW por mais de quinze minutos. / [en] The objective of this study is to develop a statistical algorithm to predict the power transmitted by a thermoelectric power plant in Linhares, located at Espírito Santo state, measured at the entrance of the utility regional grid, which will be integrated to a platform formed by a real time supervisor system developed in MS Windows. To this end we compared Arima (p,d,q), Regression using Orthogonal Polynomials and Exponential Smoothing techniques to identify the best suited approach to make predictions five steps ahead. The data used are observations recorded every 5 minutes, however, the target is to produce these forecasts for observations recorded in every five seconds. The estimated residuals of the fitted model were analysed via control charts to check on the stability of the process. The forecasts produced by this model will be used to help not to exceed the 200.000 kW energy generation upper bound for more than fifteen minutes.
237

Analýza konjunkturálních průzkumů / Analysis of the Business Cycle Surveys

Ballarinová, Marie January 2012 (has links)
The aim of this diploma thesis is to describe the problematic of business cycle and consumer surveys and represent their current development and usage. The secondary objective is to link economical and statistical bonds of business cycle surveys. First, the work describes the basic definition of business cycle surveys and their users. Further it is graphically and theoretically evaluating the current development of particular confidence indicators and their sub-questions. Subsequently is in frame of the current economic development compared development of leading indicators with the development of gross domestic product (calculated using the production method) using the HP filter. In the last part of the work are modeled one-dimensional ARIMA time series models of branch confidence indicators. Result of the work is business cycle surveys analysis in terms of basic economical and statistical ties. Completed work should serve as a material to understand business cycle survey and their importance in frame of economy development.
238

AUTOMATED OPTIMAL FORECASTING OF UNIVARIATE MONITORING PROCESSES : Employing a novel optimal forecast methodology to define four classes of forecast approaches and testing them on real-life monitoring processes

Razroev, Stanislav January 2019 (has links)
This work aims to explore practical one-step-ahead forecasting of structurally changing data, an unstable behaviour, that real-life data connected to human activity often exhibit. This setting can be characterized as monitoring process. Various forecast models, methods and approaches can range from being simple and computationally "cheap" to very sophisticated and computationally "expensive". Moreover, different forecast methods handle different data-patterns and structural changes differently: for some particular data types or data intervals some particular forecast methods are better than the others, something that is usually not known beforehand. This raises a question: "Can one design a forecast procedure, that effectively and optimally switches between various forecast methods, adapting the forecast methods usage to the changes in the incoming data flow?" The thesis answers this question by introducing optimality concept, that allows optimal switching between simultaneously executed forecast methods, thus "tailoring" forecast methods to the changes in the data. It is also shown, how another forecast approach: combinational forecasting, where forecast methods are combined using weighted average, can be utilized by optimality principle and can therefore benefit from it. Thus, four classes of forecast results can be considered and compared: basic forecast methods, basic optimality, combinational forecasting, and combinational optimality. The thesis shows, that the usage of optimality gives results, where most of the time optimality is no worse or better than the best of forecast methods, that optimality is based on. Optimality reduces also scattering from multitude of various forecast suggestions to a single number or only a few numbers (in a controllable fashion). Optimality gives additionally lower bound for optimal forecasting: the hypothetically best achievable forecast result. The main conclusion is that optimality approach makes more or less obsolete other traditional ways of treating the monitoring processes: trying to find the single best forecast method for some structurally changing data. This search still can be sought, of course, but it is best done within optimality approach as its innate component. All this makes the proposed optimality approach for forecasting purposes a valid "representative" of a more broad ensemble approach (which likewise motivated development of now popular Ensemble Learning concept as a valid part of Machine Learning framework). / Denna avhandling syftar till undersöka en praktisk ett-steg-i-taget prediktering av strukturmässigt skiftande data, ett icke-stabilt beteende som verkliga data kopplade till människoaktiviteter ofta demonstrerar. Denna uppsättning kan alltså karakteriseras som övervakningsprocess eller monitoringsprocess. Olika prediktionsmodeller, metoder och tillvägagångssätt kan variera från att vara enkla och "beräkningsbilliga" till sofistikerade och "beräkningsdyra". Olika prediktionsmetoder hanterar dessutom olika mönster eller strukturförändringar i data på olika sätt: för vissa typer av data eller vissa dataintervall är vissa prediktionsmetoder bättre än andra, vilket inte brukar vara känt i förväg. Detta väcker en fråga: "Kan man skapa en predictionsprocedur, som effektivt och på ett optimalt sätt skulle byta mellan olika prediktionsmetoder och för att adaptera dess användning till ändringar i inkommande dataflöde?" Avhandlingen svarar på frågan genom att introducera optimalitetskoncept eller optimalitet, något som tillåter ett optimalbyte mellan parallellt utförda prediktionsmetoder, för att på så sätt skräddarsy prediktionsmetoder till förändringar i data. Det visas också, hur ett annat prediktionstillvägagångssätt: kombinationsprediktering, där olika prediktionsmetoder kombineras med hjälp av viktat medelvärde, kan utnyttjas av optimalitetsprincipen och därmed få nytta av den. Alltså, fyra klasser av prediktionsresultat kan betraktas och jämföras: basprediktionsmetoder, basoptimalitet, kombinationsprediktering och kombinationsoptimalitet. Denna avhandling visar, att användning av optimalitet ger resultat, där optimaliteten för det mesta inte är sämre eller bättre än den bästa av enskilda prediktionsmetoder, som själva optimaliteten är baserad på. Optimalitet reducerar också spridningen från mängden av olika prediktionsförslag till ett tal eller bara några enstaka tal (på ett kontrollerat sätt). Optimalitet producerar ytterligare en nedre gräns för optimalprediktion: det hypotetiskt bästa uppnåeliga prediktionsresultatet. Huvudslutsatsen är följande: optimalitetstillvägagångssätt gör att andra traditionella sätt att ta hand om övervakningsprocesser blir mer eller mindre föråldrade: att leta bara efter den enda bästa enskilda prediktionsmetoden för data med strukturskift. Sådan sökning kan fortfarande göras, men det är bäst att göra den inom optimalitetstillvägagångssättet, där den ingår som en naturlig komponent. Allt detta gör det föreslagna optimalitetstillvägagångssättetet för prediktionsändamål till en giltig "representant" för det mer allmäna ensembletillvägagångssättet (något som också motiverade utvecklingen av numera populär Ensembleinlärning som en giltig del av Maskininlärning).
239

Mortalité par suicide au Canada depuis le début du XXe siècle : perspectives sociodémographiques et macroéconomiques

Thibodeau, Lise 08 1900 (has links)
No description available.
240

Modeling of non-maturing deposits / Modellering av icke-tidsbunda inlåningsvolymer

Stavrén, Fredrik, Domin, Nikita January 2019 (has links)
The interest in modeling non-maturing deposits has skyrocketed ever since thefinancial crisis 2008. Not only from a regulatory and legislative perspective,but also from an investment and funding perspective.Modeling of non-maturing deposits is a very broad subject. In this thesis someof the topics within the subject are investigated, where the greatest focus inon the modeling of the deposit volumes. The main objective is to providethe bank with an analysis of the majority of the topics that needs to be cov-ered when modeling non-maturing deposits. This includes short-rate model-ing using Vasicek’s model, deposit rate modeling using a regression approachand a method proposed by Jarrow and Van Deventer, volume modeling usingSARIMA, SARIMAX and a general additive model, a static replicating port-folio based on Maes and Timmerman’s to model the behaviour of the depositaccounts and finally a liquidity risk model that was suggested by Kalkbrenerand Willing. All of these models have been applied on three different accounttypes: private transaction accounts, savings accounts and corporate savingsaccounts.The results are that, due to the current market, the static replicating portfoliodoes not achieve the desired results. Furthermore, the best volume model forthe data provided is a SARIMA model, meaning the effect of the exogenousvariables are seemingly already embedded in the lagged volume. Finally, theliquidity risk results are plausible and thus deemed satisfactory. / Intresset för att modellera inlåningsvolymer utan en kontrakterad förfallodaghar ökat markant sedan finanskrisen 2008. Inte bara sett utifrån ett perspek-tiv att uppfylla krav som ställs av tillsynsmyndigheter, men också sett utifrånbankens investerings-och finansieringsperspektiv.Målet med det här arbetet är att förse banken med en analys av majoritetenav de olika områdena som man behöver ta hänsyn till när man ska model-lera inlåningar utan förfallodatum, men med ett fokus på volymmodellering.I den här rapporten modelleras räntor (kortränta och kontoränta), kontovoly-merna, kontobeteendet samt likviditetsrisken. Detta görs med hjälp av Vasicekför korträntan, en regressionsmetod samt en metod som föreslagits av Jarrowoch Van Deventer för kontoräntan, SARIMA, SARIMAX och en generell ad-ditiv regressionsmetod för volymerna, en statisk replikeringsportfölj baseradpå Maes och Timmermans modell för att imitera kontona och slutligen så mo-delleras likviditetsrisken med ett ramverk som föreslagits av Kalkbrener ochWilling. Alla dessa nämnda modeller appliceras, där det är möjligt, på de treolika kontotyperna: privatkonton, sparkonton samt företagssparkonto.Resultatet är att räntemodelleringen samt replikeringsportföljen inte ger ade-kvata resultat på grund av den rådande marknaden. Vidare så ger en SARIMA-modell den bästa prediktionen, vilket gör att slutsatsen är att andra exogenavariabler redan är inneslutna i den fördröjda volymvariabeln. Avslutningsvisså ger likviditetsmodellen tillfredsställande resultat och antas vara rimlig.

Page generated in 0.038 seconds