• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 29
  • 29
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Default Risk of Greek Government During the Crisis of 2010 / Default Risk of Greek Government During the Crisis of 2010

Veselý, Oldřich January 2011 (has links)
Many people have already questioned whether Greece would default: investors, economists, politicians and general public. The Greek debt crisis has also caused a great turmoil in the EU causing fears of its spreading to other countries with poor fiscal situation in Eurozone through bond markets. Finally the rescue package was prepared for Greece consisting of EUR 110 billion loan facility from both Eurozone and IMF. We study the Greek fiscal crisis in the thesis. We try to find its real causes in the historical chapter and we also show the methodology which can be used to assess the credit risk of Greek government using bond market information and CDS contracts information. In the empirical part we study the evolution of the probability of default of Greek government during the debt crisis using parsimonious model based on the bond market information.
22

A Signal Processing Approach to Voltage-Sensitive Dye Optical Imaging / Une approche mathématique de l'imagerie optique par colorant potentiométrique

Raguet, Hugo 22 September 2014 (has links)
L’imagerie optique par colorant potentiométrique est une méthode d’enregistrement de l’activité corticale prometteuse, mais dont le potentiel réel est limité par la présence d’artefacts et d’interférences dans les acquisitions. À partir de modèles existant dans la littérature, nous proposons un modèle génératif du signal basé sur un mélange additif de composantes, chacune contrainte dans une union d’espaces linéaires déterminés par son origine biophysique. Motivés par le problème de séparation de composantes qui en découle, qui est un problème inverse linéaire sous-déterminé, nous développons : (1) des régularisations convexes structurées spatialement, favorisant en particulier des solutions parcimonieuses ; (2) un nouvel algorithme proximal de premier ordre pour minimiser efficacement la fonctionnelle qui en résulte ; (3) des méthodes statistiques de sélection de paramètre basées sur l’estimateur non biaisé du risque de Stein. Nous étudions ces outils dans un cadre général, et discutons leur utilité pour de nombreux domaines des mathématiques appliqués, en particulier pour les problèmes inverses ou de régression en grande dimension. Nous développons par la suite un logiciel de séparation de composantes en présence de bruit, dans un environnement intégré adapté à l’imagerie optique par colorant potentiométrique. Finalement, nous évaluons ce logiciel sur différentes données, synthétiques et réelles, montrant des résultats encourageants quant à la possibilité d’observer des dynamiques corticales complexes. / Voltage-sensitive dye optical imaging is a promising recording modality for the cortical activity, but its practical potential is limited by many artefacts and interferences in the acquisitions. Inspired by existing models in the literature, we propose a generative model of the signal, based on an additive mixtures of components, each one being constrained within an union of linear spaces, determined by its biophysical origin. Motivated by the resulting component separation problem, which is an underdetermined linear inverse problem, we develop: (1) convex, spatially structured regularizations, enforcing in particular sparsity on the solutions; (2) a new rst-order proximal algorithm for minimizing e›ciently the resulting functional; (3) statistical methods for automatic parameters selection, based on Stein’s unbiased risk estimate.We study thosemethods in a general framework, and discuss their potential applications in variouselds of applied mathematics, in particular for large scale inverse problems or regressions. We develop subsequently a soŸware for noisy component separation, in an integrated environment adapted to voltage-sensitive dye optical imaging. Finally, we evaluate this soŸware on dišerent data set, including synthetic and real data, showing encouraging perspectives for the observation of complex cortical dynamics.
23

Modélisation du canal de propagation Terre-Espace en bandes Ka et Q/V : synthèse de séries temporelles, variabilité statistique et estimation de risque / Modelling of the Earth-Space propagation channel in Ka and Q/V bands : time series synthesis, statistical variability and risk estimation

Boulanger, Xavier 15 March 2013 (has links)
Les bandes de fréquences utilisées conventionnellement pour les systèmes fixes de télécommunication par satellites (bandes C et Ku i.e. 4-15 GHz) sont congestionnées. Néanmoins, le marché des télécommunications civil et de défense accuse une demande de plus en plus importante en services multimédia haut-débit. Par conséquent, l'augmentation de la fréquence porteuse vers les bandes Ka et Q/V (20-40/50 GHz)est activement étudiée. Pour des fréquences supérieures à 5 GHz, la propagation des signaux radioélectriques souffre de l'atténuation troposphérique. Parmi les différents contributeurs à l'affaiblissement troposphérique total(atténuation, scintillation, dépolarisation, température de bruit du ciel), les précipitations jouent un rôle prépondérant. Pour compenser la détérioration des conditions de propagation, des techniques de compensation des affaiblissements (FMT: Fade Mitigation Technique) permettant d'adapter en temps réel les caractéristiques du système en fonction de l'état du canal de propagation doivent être employées. Une alternative à l'utilisation de séries temporelles expérimentales peu nombreuses est la génération de séries temporelles synthétiques d'atténuation due à la pluie et d'atténuation totale représentatives d'une liaison donnée.Le manuscrit est organisé autour de cinq articles. La première contribution est dédiée à la modélisation temporelle de l'affaiblissement troposphérique total. Le deuxième article porte sur des améliorations significatives du modèle de génération de séries temporelles d'atténuation due à la pluie recommandé par l'UITR.Les trois contributions suivantes constituent une analyse critique et une modélisation de la variabilité des statistiques du 1er ordre utilisées lors des tests des modèles de canal. La variance de l'estimateur statistique des distributions cumulatives complémentaires de l'atténuation due à la pluie et de l'intensité de précipitation est alors mise en évidence. Un modèle à application mondiale paramétré au moyen de données expérimentales est proposé. Celui-ci permet, d'une part, d'estimer les intervalles de confiance associés aux mesures de propagation et d'autre part, de quantifier le risque en termes de disponibilité annuelle associée à la prédiction d'une marge de propagation donnée. Cette approche est étendue aux variabilités des statistiques jointes. Elle permet alors une évaluation statistique de l'impact des techniques de diversité de site sur les performances systèmes, tant à microéchelle(quelques kms) qu'à macro-échelle (quelques centaines de kms). / Nowadays, C and Ku bands used for fixed SATCOM systems are totally congested. However, the demand of the end users for high data rate multimedia services is increasing. Consequently, the use of higher frequency bands (Ka: 20 GHz and Q/V 40/50 GHz) is under investigation. For frequencies higher than 5 GHz, radiowave propagation is strongly affected by tropospheric attenuation. Among the different contributors, rain is the most significant. To compensate the deterioration of the propagation channel, Fade Mitigation Techniques (FMT) are used. The lack of experimental data needed to optimize the real-time control loops of FMT leads tothe use of rain attenuation and total attenuation time series synthesizers. The manuscript is a compilation of five articles. The first contribution is dedicated to the temporal modelling of total impairments. The second article aims at providing significant improvements on the rain attenuation time series synthesizer recommended by ITU-R. The last three contributions are a critical analysis and a modelling of the variability observed on the 1st order statistics used to validate propagation channel models. The variance of the statistical estimator of the complementary cumulative distribution functions of rainfall rate and rain attenuation is highlighted. A worldwide model parameterized in compliance with propagation measurements is proposed. It allows the confidence intervals to be estimated and the risk on a required availability associated with a given propagation margin prediction to be quantified. This approach is extended to the variability of joint statistics. It allows the impact of site diversity techniques on system performances at small scale (few kms) and large scale (few hundred of kms) to be evaluated.
24

Modélisation de la dépendance et estimation du risque agrégé / Dependence modelling and risk aggregation estimation

Cuberos, Andres 18 December 2015 (has links)
Cette thèse porte sur l'étude de la modélisation et estimation de la dépendance des portefeuilles de risques et l'estimation du risque agrégé. Dans le Chapitre 2, nous proposons une nouvelle méthode pour estimer les quantiles de haut niveau pour une somme de risques. Elle est basée sur l'estimation du rapport entre la VaR de la somme et la VaR du maximum des risques. Nous utilisons des résultats sur les fonctions à variation régulière. Nous comparons l'efficacité de notre méthode avec quelques estimations basées sur la théorie des valeurs extrêmes, sur plusieurs modèles. Notre méthode donne de bons résultats lors de l'approximation de la VaR à des niveaux élevés lorsque les risques sont fortement dépendants et au moins l'un des risques est à queue épaisse. Dans le Chapitre 3, nous proposons une procédure d'estimation pour la distribution d'un risque agrégé basée sur la copule échiquier. Elle permet d'obtenir de bonnes estimations à partir d'un petit échantillon de la loi multivariée et une connaissance complète des lois marginales. Cette situation est réaliste pour de nombreuses applications. Les estimations peuvent être améliorées en incluant dans la copule échiquier des informations supplémentaires (sur la loi d'un sous-vecteur ou sur des probabilités extrêmes). Notre approche est illustrée par des exemples numériques. Finalement, dans le Chapitre 4, nous proposons un estimateur de la mesure spectrale basé sur l'estimation à noyau de la densité de la mesure spectrale d'une distribution à variation régulière bivariée. Une extension de notre méthode permet d'estimer la mesure spectrale discrète. Certaines propriétés de convergence sont obtenues / This thesis comprises three essays on estimation methods for the dependence between risks and its aggregation. In the first essay we propose a new method to estimate high level quantiles of sums of risks. It is based on the estimation of the ratio between the VaR (or TVaR) of the sum and the VaR (or TVaR) of the maximum of the risks. We use results on regularly varying functions. We compare the efficiency of our method with classical ones, on several models. Our method gives good results when approximating the VaR or TVaR in high levels on strongly dependent risks where at least one of the risks is heavy tailed. In the second essay we propose an estimation procedure for the distribution of an aggregated risk based on the checkerboard copula. It allows to get good estimations from a (quite) small sample of the multivariate law and a full knowledge of the marginal laws. This situation is realistic for many applications. Estimations may be improved by including in the checkerboard copula some additional information (on the law of a sub-vector or on extreme probabilities). Our approach is illustrated by numerical examples. In the third essay we propose a kernel based estimator for the spectral measure density of a bivariate distribution with regular variation. An extension of our method allows to estimate discrete spectral measures. Some convergence properties are obtained
25

Régularisations de faible complexité pour les problèmes inverses / Low Complexity Regularization of Inverse Problems

Vaiter, Samuel 10 July 2014 (has links)
Cette thèse se consacre aux garanties de reconstruction et de l’analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s’agit d’un problème d’optimisation convexe combinant un terme d’attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l’étude d’une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l’anti-Parcimonie et la structure de faible rang. Nous analysons tout d’abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l’objet original, ainsi que la stabilité de l’espace modèle promu.Ensuite, nous étudions la stabilité de ces problèmes d’optimisation à des perturbations des observations. A partir d’observations aléatoires, nous construisons un estimateur non biaisé du risque afin d’obtenir un schéma de sélection de paramètre. / This thesis is concerned with recovery guarantees and sensitivity analysis of variational regularization for noisy linear inverse problems. This is cast as aconvex optimization problem by combining a data fidelity and a regularizing functional promoting solutions conforming to some notion of low complexity related to their non-Smoothness points. Our approach, based on partial smoothness, handles a variety of regularizers including analysis/structured sparsity, antisparsity and low-Rank structure. We first give an analysis of thenoise robustness guarantees, both in terms of the distance of the recovered solutions to the original object, as well as the stability of the promoted modelspace. We then turn to sensivity analysis of these optimization problems to observation perturbations. With random observations, we build un biased estimator of the risk which provides a parameter selection scheme.
26

Public health implications of medical diagnostic radiation exposure

Gerstenmaier, Jan Frank 02 1900 (has links)
Radiation from Computed Tomography (CT) is now the major contributor to population radiation dose. Despite controversy around the dose-effect relationship of radiation from CT, the linear non-threshold (LNT) theory is endorsed by many authorities, and constitutes the basis of cancer risk estimates. The purpose of this study was (1) a literature review of radiobiological theories, and methods of dose saving stategies in CT; (2) to highlight the importance of dose saving in CT, and to demonstrate how dose can be saved in a radiology department: Following a 40% reduction in reference X-ray tube current for a CT of the urinary tract, the effecitve dose and estimated lifetime attributable risk of incident cancer due to this CT in a group (n=103) were reduced by 37% and 38% in an age and sex-matched group respectively. The literature review showed that the public health implications of CT radiation exposure remain uncertain. / Health Studies / M.A. (Public Health)
27

Klientų duomenų valdymas bankininkystėje / Client data management in banking

Žiupsnys, Giedrius 09 July 2011 (has links)
Darbas apima banko klientų kredito istorinių duomenų dėsningumų tyrimą. Pirmiausia nagrinėjamos banko duomenų saugyklos, siekiant kuo geriau perprasti bankinius duomenis. Vėliau naudojant banko duomenų imtis, kurios apima kreditų grąžinimo istoriją, siekiama įvertinti klientų nemokumo riziką. Tai atliekama adaptuojant algoritmus bei programinę įrangą duomenų tyrimui, kuris pradedamas nuo informacijos apdorojimo ir paruošimo. Paskui pritaikant įvairius klasifikavimo algoritmus, sudarinėjami modeliai, kuriais siekiama kuo tiksliau suskirstyti turimus duomenis, nustatant nemokius klientus. Taip pat siekiant įvertinti kliento vėluojamų mokėti paskolą dienų skaičių pasitelkiami regresijos algoritmai bei sudarinėjami prognozės modeliai. Taigi darbo metu atlikus numatytus tyrimus, pateikiami duomenų vitrinų modeliai, informacijos srautų schema. Taip pat nurodomi klasifikavimo ir prognozavimo modeliai bei algoritmai, geriausiai įvertinantys duotas duomenų imtis. / This work is about analysing regularities in bank clients historical credit data. So first of all bank information repositories are analyzed to comprehend banks data. Then using data mining algorithms and software for bank data sets, which describes credit repayment history, clients insolvency risk is being tried to estimate. So first step in analyzis is information preprocessing for data mining. Later various classification algorithms is used to make models wich classify our data sets and help to identify insolvent clients as accurate as possible. Besides clasiffication, regression algorithms are analyzed and prediction models are created. These models help to estimate how long client are late to pay deposit. So when researches have been done data marts and data flow schema are presented. Also classification and regressions algorithms and models, which shows best estimation results for our data sets, are introduced.
28

A Bayesian network based on-line risk prediction framework for interdependent critical infrastructures

Schaberreiter, T. (Thomas) 04 October 2013 (has links)
Abstract Critical Infrastructures (CIs) are an integral part of our society and economy. Services like electricity supply or telecommunication services are expected to be available at all times and a service failure may have catastrophic consequences for society or economy. Current CI protection strategies are from a time when CIs or CI sectors could be operated more or less self-sufficient and interconnections among CIs or CI sectors, which may lead to cascading service failures to other CIs or CI sectors, where not as omnipresent as today. In this PhD thesis, a cross-sector CI model for on-line risk monitoring of CI services, called CI security model, is presented. The model allows to monitor a CI service risk and to notify services that depend on it of possible risks in order to reduce and mitigate possible cascading failures. The model estimates CI service risk by observing the CI service state as measured by base measurements (e.g. sensor or software states) within the CI service components and by observing the experienced service risk of CI services it depends on (CI service dependencies). CI service risk is estimated in a probabilistic way using a Bayesian network based approach. Furthermore, the model allows CI service risk prediction in the short-term, mid-term and long-term future, given a current CI service risk and it allows to model interdependencies (a CI service risk that loops back to the originating service via dependencies), a special case that is difficult to model using Bayesian networks. The representation of a CI as a CI security model requires analysis. In this PhD thesis, a CI analysis method based on the PROTOS-MATINE dependency analysis methodology is presented in order to analyse CIs and represent them as CI services, CI service dependencies and base measurements. Additional research presented in this PhD thesis is related to a study of assurance indicators able to perform an on-line evaluation of the correctness of risk estimates within a CI service, as well as for risk estimates received from dependencies. A tool that supports all steps of establishing a CI security model was implemented during this PhD research. The research on the CI security model and the assurance indicators was validated based on a case study and the initial results suggest its applicability to CI environments. / Tiivistelmä Tässä väitöskirjassa esitellään läpileikkausmalli kriittisten infrastruktuurien jatkuvaan käytön riskimallinnukseen. Tämän mallin avulla voidaan tiedottaa toisistaan riippuvaisia palveluita mahdollisista vaaroista, ja siten pysäyttää tai hidastaa toisiinsa vaikuttavat ja kumuloituvat vikaantumiset. Malli analysoi kriittisen infrastruktuurin palveluriskiä tutkimalla kriittisen infrastruktuuripalvelun tilan, joka on mitattu perusmittauksella (esimerkiksi anturi- tai ohjelmistotiloina) kriittisen infrastruktuurin palvelukomponenttien välillä ja tarkkailemalla koetun kriittisen infrastruktuurin palveluriskiä, joista palvelut riippuvat (kriittisen infrastruktuurin palveluriippuvuudet). Kriittisen infrastruktuurin palveluriski arvioidaan todennäköisyyden avulla käyttämällä Bayes-verkkoja. Lisäksi malli mahdollistaa tulevien riskien ennustamisen lyhyellä, keskipitkällä ja pitkällä aikavälillä, ja mahdollistaa niiden keskinäisten riippuvuuksien mallintamisen, joka on yleensä vaikea esittää Bayes-verkoissa. Kriittisen infrastruktuurin esittäminen kriittisen infrastruktuurin tietoturvamallina edellyttää analyysiä. Tässä väitöskirjassa esitellään kriittisen infrastruktuurin analyysimenetelmä, joka perustuu PROTOS-MATINE -riippuvuusanalyysimetodologiaan. Kriittiset infrastruktuurit esitetään kriittisen infrastruktuurin palveluina, palvelujen keskinäisinä riippuvuuksina ja perusmittauksina. Lisäksi tutkitaan varmuusindikaattoreita, joilla voidaan tutkia suoraan toiminnassa olevan kriittisen infrastruktuuripalvelun riskianalyysin oikeellisuutta, kuin myös riskiarvioita riippuvuuksista. Tutkimuksessa laadittiin työkalu, joka tukee kriittisen infrastruktuurin tietoturvamallin toteuttamisen kaikkia vaiheita. Kriittisen infrastruktuurin tietoturvamalli ja varmuusindikaattorien oikeellisuus vahvistettiin konseptitutkimuksella, ja alustavat tulokset osoittavat menetelmän toimivuuden. / Kurzfassung In dieser Doktorarbeit wird ein Sektorübergreifendes Modell für die kontinuierliche Risikoabschätzung von kritische Infrastrukturen im laufenden Betrieb vorgestellt. Das Modell erlaubt es, Dienstleistungen, die in Abhängigkeit einer anderen Dienstleistung stehen, über mögliche Gefahren zu informieren und damit die Gefahr des Übergriffs von Risiken in andere Teile zu stoppen oder zu minimieren. Mit dem Modell können Gefahren in einer Dienstleistung anhand der Überwachung von kontinuierlichen Messungen (zum Beispiel Sensoren oder Softwarestatus) sowie der Überwachung von Gefahren in Dienstleistungen, die eine Abhängigkeit darstellen, analysiert werden. Die Abschätzung von Gefahren erfolgt probabilistisch mittels eines Bayessches Netzwerks. Zusätzlich erlaubt dieses Modell die Voraussage von zukünftigen Risiken in der kurzfristigen, mittelfristigen und langfristigen Zukunft und es erlaubt die Modellierung von gegenseitigen Abhängigkeiten, die im Allgemeinen schwer mit Bayesschen Netzwerken darzustellen sind. Um eine kritische Infrastruktur als ein solches Modell darzustellen, muss eine Analyse der kritischen Infrastruktur durchgeführt werden. In dieser Doktorarbeit wird diese Analyse durch die PROTOS-MATINE Methode zur Analyse von Abhängigkeiten unterstützt. Zusätzlich zu dem vorgestellten Modell wird in dieser Doktorarbeit eine Studie über Indikatoren, die das Vertrauen in die Genauigkeit einer Risikoabschätzung evaluieren können, vorgestellt. Die Studie beschäftigt sich sowohl mit der Evaluierung von Risikoabschätzungen innerhalb von Dienstleistungen als auch mit der Evaluierung von Risikoabschätzungen, die von Dienstleistungen erhalten wurden, die eine Abhängigkeiten darstellen. Eine Software, die alle Aspekte der Erstellung des vorgestellten Modells unterstützt, wurde entwickelt. Sowohl das präsentierte Modell zur Abschätzung von Risiken in kritischen Infrastrukturen als auch die Indikatoren zur Uberprüfung der Risikoabschätzungen wurden anhand einer Machbarkeitsstudie validiert. Erste Ergebnisse suggerieren die Anwendbarkeit dieser Konzepte auf kritische Infrastrukturen.
29

Spectral Portfolio Optimisation with LSTM Stock Price Prediction / Spektralportföljsoptimering med LSTM aktieprispredikering

Wang, Nancy January 2020 (has links)
Nobel Prize-winning modern portfolio theory (MPT) has been considered to be one of the most important and influential economic theories within finance and investment management. MPT assumes investors to be riskaverse and uses the variance of asset returns as a proxy of risk to maximise the performance of a portfolio. Successful portfolio management reply, thus on accurate risk estimate and asset return prediction. Risk estimates are commonly obtained through traditional asset pricing factor models, which allow the systematic risk to vary over time domain but not in the frequency space. This approach can impose limitations in, for instance, risk estimation. To tackle this shortcoming, interest in applications of spectral analysis to financial time series has increased lately. Among others, the novel spectral portfolio theory and the spectral factor model which demonstrate enhancement in portfolio performance through spectral risk estimation [1][11]. Moreover, stock price prediction has always been a challenging task due to its non-linearity and non-stationarity. Meanwhile, Machine learning has been successfully implemented in a wide range of applications where it is infeasible to accomplish the needed tasks traditionally. Recent research has demonstrated significant results in single stock price prediction by artificial LSTM neural network [6][34]. This study aims to evaluate the combined effect of these two advancements in a portfolio optimisation problem and optimise a spectral portfolio with stock prices predicted by LSTM neural networks. To do so, we began with mathematical derivation and theoretical presentation and then evaluated the portfolio performance generated by the spectral risk estimates and the LSTM stock price predictions, as well as the combination of the two. The result demonstrates that the LSTM predictions alone performed better than the combination, which in term performed better than the spectral risk alone. / Den nobelprisvinnande moderna portföjlteorin (MPT) är utan tvekan en av de mest framgångsrika investeringsmodellerna inom finansvärlden och investeringsstrategier. MPT antar att investerarna är mindre benägna till risktagande och approximerar riskexponering med variansen av tillgångarnasränteavkastningar. Nyckeln till en lyckad portföljförvaltning är därmed goda riskestimat och goda förutsägelser av tillgångspris. Riskestimering görs vanligtvis genom traditionella prissättningsmodellerna som tillåter risken att variera i tiden, dock inte i frekvensrummet. Denna begränsning utgör bland annat ett större fel i riskestimering. För att tackla med detta har intresset för tillämpningar av spektraanalys på finansiella tidsserier ökat de senast åren. Bland annat är ett nytt tillvägagångssätt för att behandla detta den nyintroducerade spektralportföljteorin och spektralfak- tormodellen som påvisade ökad portföljenprestanda genom spektralriskskattning [1][11]. Samtidigt har prediktering av aktierpriser länge varit en stor utmaning på grund av dess icke-linjära och icke-stationära egenskaper medan maskininlärning har kunnat använts för att lösa annars omöjliga uppgifter. Färska studier har påvisat signifikant resultat i aktieprisprediktering med hjälp av artificiella LSTM neurala nätverk [6][34]. Detta arbete undersöker kombinerade effekten av dessa två framsteg i ett portföljoptimeringsproblem genom att optimera en spektral portfölj med framtida avkastningar predikterade av ett LSTM neuralt nätverk. Arbetet börjar med matematisk härledningar och teoretisk introduktion och sedan studera portföljprestation som genereras av spektra risk, LSTM aktieprispredikteringen samt en kombination av dessa två. Resultaten visar på att LSTM-predikteringen ensam presterade bättre än kombinationen, vilket i sin tur presterade bättre än enbart spektralriskskattningen.

Page generated in 0.1417 seconds