• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 291
  • 113
  • 32
  • 31
  • 15
  • 13
  • 8
  • 7
  • 7
  • 6
  • 5
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 604
  • 604
  • 213
  • 118
  • 101
  • 99
  • 97
  • 82
  • 78
  • 65
  • 62
  • 61
  • 55
  • 53
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Stochastic volatility : maximum likelihood estimation and specification testing

White, Scott Ian January 2006 (has links)
Stochastic volatility (SV) models provide a means of tracking and forecasting the variance of financial asset returns. While SV models have a number of theoretical advantages over competing variance modelling procedures they are notoriously difficult to estimate. The distinguishing feature of the SV estimation literature is that those algorithms that provide accurate parameter estimates are conceptually demanding and require a significant amount of computational resources to implement. Furthermore, although a significant number of distinct SV specifications exist, little attention has been paid to how one would choose the appropriate specification for a given data series. Motivated by these facts, a likelihood based joint estimation and specification testing procedure for SV models is introduced that significantly overcomes the operational issues surrounding existing estimators. The estimation and specification testing procedures in this thesis are made possible by the introduction of a discrete nonlinear filtering (DNF) algorithm. This procedure uses the nonlinear filtering set of equations to provide maximum likelihood estimates for the general class of nonlinear latent variable problems which includes the SV model class. The DNF algorithm provides a fast and accurate implementation of the nonlinear filtering equations by treating the continuously valued state-variable as if it were a discrete Markov variable with a large number of states. When the DNF procedure is applied to the standard SV model, very accurate parameter estimates are obtained. Since the accuracy of the DNF is comparable to other procedures, its advantages are seen as ease and speed of implementation and the provision of online filtering (prediction) of variance. Additionally, the DNF procedure is very flexible and can be used for any dynamic latent variable problem with closed form likelihood and transition functions. Likelihood based specification testing for non-nested SV specifications is undertaken by formulating and estimating an encompassing model that nests two competing SV models. Likelihood ratio statistics are then used to make judgements regarding the optimal SV specification. The proposed framework is applied to SV models that incorporate either extreme returns or asymmetries.
252

Testing Futures Pricing Models An Empirical Study /

Stengl, Benjamin. January 2006 (has links) (PDF)
Master-Arbeit Univ. St. Gallen, 2006.
253

Εκτίμηση των παραμέτρων της διπαραμετρικής εκθετικής κατανομής από ένα διπλά διακεκομμένο δείγμα

Δασκαλάκη, Ιωάννα 05 January 2011 (has links)
Η παρούσα μεταπτυχιακή διατριβή εντάσσεται ερευνητικά στην περιοχή της Στατιστικής Θεωρίας Αποφάσεων και ειδικότερα στην εκτίμηση των παραμέτρων στο μοντέλο της διπαραμετρικής εκθετικής κατανομής με παράμετρο θέσης μ και παράμετρο κλίμακος σ. Θεωρούμε ένα δείγμα n τυχαίων μεταβλητών, καθεμία από τις οποίες ακολουθεί την διπαραμετρική εκθετική κατανομή. Λογοκρίνουμε κάποιες αρχικές παρατηρήσεις και έστω ότι τερματίζουμε το πείραμά μας πριν αποτύχουν όλες οι συνιστώσες. Τότε προκύπτει ένα διπλά διακεκομμένο δείγμα διατεταγμένων παρατηρήσεων. Η εκτίμηση των παραμέτρων της διπαραμετρικής εκθετικής κατανομής, γίνεται από το συγκεκριμένο δείγμα. Πρώτα μελετάμε κάποιες βασικές έννοιες της Στατιστικής και της Εκτιμητικής και βρίσκουμε εκτιμητές για τις παραμέτρους. Πιο συγκεκριμένα, βρίσκουμε αμερόληπτο εκτιμητή ελάχιστης διασποράς, εκτιμητή μέγιστης πιθανοφάνειας, εκτιμητή με την μέθοδο των ροπών και τον βέλτιστο αναλλοίωτο εκτιμητή σε συγκεκριμένη κλάση, αντίστοιχα και για τις δύο παραμέτρους. Σαν βελτίωση των προηγούμενων εκτιμητών, ακολουθούν οι εκτιμητές τύπου Stein και, ολοκληρώνοντας, ασχολούμαστε με πρόβλεψη κατά Bayes για μια μελλοντική παρατήρηση / The present master thesis deals with the estimation of the location parameter μ and the scale parameter σ of the two-parameter exponential distribution. A sample n of random variables from the two-parameter exponential distribution is assumed. Part of the initial variables is censored and the experiment is terminated before all the components fail. A doubly censored sample emerges from which the two-parameter exponential distribution's parameters are estimated. First of all, basic Statistics' concepts are studied in order to estimate the parameters. More specifically, the Minimum Variance Unbiased Estimator (MVUE), the Maximum Likelihood Estimator (MLE), the estimator based on the Method of Moments and the best affine equivariant estimator are computed for both the parameters. To improve the previous estimators, the Stein method is used and to conclude the Bayes prediction is used for future observation
254

Avaliação da construção e aplicação de modelos florestais de efeitos fixos e efeitos mistos sob o ponto de vista preditivo / Evaluation of goodness of fit and application of fixed and mixed effects models in forestry from the predictive point of view

Edgar de Souza Vismara 20 March 2013 (has links)
Neste trabalho procurou-se avaliar o processo de construção e aplicação de modelos preditivos no meio florestal. Para tanto, no primeiro artigo parte-se de uma amostra destrutiva de 200 indivíduos de dez espécies arbóreas distintas, originárias do bioma Atlântico, testando-se três modelos teóricos comumente usados na predição de volume e biomassa, sendo a esses adicionados preditores informativos da densidade básica da árvore. Para a avaliação os modelos ajustados foram simuladas três situações preditivas distintas. Os resultados demonstraram que aplicar o modelo em situações distintas a da amostra de ajuste gera viés nas predições que, no entanto, é reduzido com a entrada dos referidos preditores. O segundo artigo apresenta aplicações da calibração do modelo linear de efeito misto na predição do volume em plantios de Eucalyptus grandis em primeira e segunda rotação. Para tanto, partiu-se do modelo de Schumacher e Hall, em sua forma linearizada, para o desenvolvimento modelo de efeitos mistos, que considerou alguns de seus parâmetros como sendo aleatórios ao longo das diferentes fazendas. A calibração foi realizada em nível de fazenda partindo-se de um pequeno número de árvores-amostra. A abordagem foi desenvolvida para modelos univariados de primeira rotação, além de modelos bivariados de duas rotações. Os resultados mostraram que o procedimento de calibração fornece predições mais confiáveis que a dos modelos tradicionais de efeitos fixos em ambas as rotações. O terceiro artigo apresenta aplicações da calibração do modelo linear de efeito misto na predição da biomassa de árvores de espécies nativas numa floresta Ombrófila densa. Partiuse do modelo de potência, em sua forma linearizada, para o desenvolvimento modelo de efeitos mistos e dois níveis: parcela e espécie, O ajuste do modelo foi feito considerando esses dois níveis, mas a calibração foi realizada em cada nível ignorando o efeito do outro, nível. Os resultados mostraram que o procedimento de calibração fornece predições mais confiáveis em nível de espécie que os modelos tradicionais. Em nível de parcela, a calibração não foi efetiva. / In this study we tried to evaluate the process of construction and application of predictive models in forestry. Therefore, in the first paper we started from a destructive sample of 200 individuals from ten different tree species, originating from the Atlantic biome. We tested three theoretical models commonly used to predict volume and biomass, which was added predictors related to tree basic density. To evaluate the models were simulated three different predictive situations. The results showed that applying the model in different situations from the sample generates bias on predictions; however, it is reduced by adding the referred predictors. The second article presents applications of linear mixedeffects models and calibration to predict the volume in Eucalyptus grandis plantations in first and second rotation. Therefore, we started with the model of Schumacher and Hall, in their linearized form to develop the mixed-effects model, which considered some of its parameters as random throughout the different farms. The calibration was performed at the farm level and starting from a small number of sample trees. The approach was developed to first rotation univariate models, and a bivariate model of both rotations. The results showed that the calibration procedure provides more reliable predictions than the traditional fixed effects models in both rotations. The third article presents applications of linear mixedeffects model and calibration to predict the biomass in a rain forest. We started from the power model, in its linearized form, for developing the mixed-effects model considering two levels of grouping: plot and species, Model fitting was made considering these two levels, but the calibration was performed on each level ignoring the other level effect. The results showed that the calibration procedure provides more reliable predictions at species level than traditional models. On the plot level, the calibration was not effective.
255

Support Vector Machines na classificação de imagens hiperespectrais / Hyperspectral image classification with support vector machines

Andreola, Rafaela January 2009 (has links)
É de conhecimento geral que, em alguns casos, as classes são espectralmente muito similares e que não é possível separá-las usando dados convencionais em baixa dimensionalidade. Entretanto, estas classes podem ser separáveis com um alto grau de acurácia em espaço de alta dimensão. Por outro lado, classificação de dados em alta dimensionalidade pode se tornar um problema para classificadores paramétricos, como o Máxima Verossimilhança Gaussiana (MVG). Um grande número de variáveis que caracteriza as imagens hiperespectrais resulta em um grande número de parâmetros a serem estimados e, geralmente, tem-se um número limitado de amostras de treinamento disponíveis. Essa condição causa o fenômeno de Hughes que consiste na gradual degradação da acurácia com o aumento da dimensionalidade dos dados. Neste contexto, desperta o interesse a utilização de classificadores não-paramétricos, como é o caso de Support Vector Machines (SVM). Nesta dissertação é analisado o desempenho do classificador SVM quando aplicado a imagens hiperespectrais de sensoriamento remoto. Inicialmente os conceitos teóricos referentes à SVM são revisados e discutidos. Em seguida, uma série de experimentos usando dados AVIRIS são realizados usando diferentes configurações para o classificador. Os dados cobrem uma área de teste da Purdue University e apresenta classes de culturas agrícolas espectralmente muito similares. A acurácia produzida na classificação por diferentes kernels são investigadas em função da dimensionalidade dos dados e comparadas com as obtidas com o classificador MVG. Como SVM é aplicado a um par de classes por vez, desenvolveu-se um classificador multi-estágio estruturado em forma de árvore binária para lidar como problema multi-classe. Em cada nó, a seleção do par de classes mais separáveis é feita pelo critério distância de Bhattacharyya. Tais classes darão origem aos nós descendentes e serão responsáveis por definir a função de decisão SVM. Repete-se este procedimento em todos os nós da árvore, até que reste apenas uma classe por nó, nos chamados nós terminais. Os softwares necessários foram desenvolvidos em ambiente MATLAB e são apresentados na dissertação. Os resultados obtidos nos experimentos permitem concluir que SVM é uma abordagem alternativa válida e eficaz para classificação de imagens hiperespectrais de sensoriamento remoto. / This dissertation deals with the application of Support Vector Machines (SVM) to the classification of remote sensing high-dimensional image data. It is well known that in many cases classes that are spectrally very similar and thus not separable when using the more conventional low-dimensional data, can nevertheless be separated with an high degree of accuracy in high dimensional spaces. Classification of high-dimensional image data can, however, become a challenging problem for parametric classifiers such as the well-known Gaussian Maximum Likelihood. A large number of variables produce an also large number of parameters to be estimated from a generally limited number of training samples. This condition causes the Hughes phenomenon which consists in a gradual degradation of the accuracy as the data dimensionality increases beyond a certain value. Non-parametric classifiers present the advantage of being less sensitive to this dimensionality problem. SVM has been receiving a great deal of attention from the international community as an efficient classifier. In this dissertation it is analyzed the performance of SVM when applied to remote sensing hyper-spectral image data. Initially the more theoretical concepts related to SVM are reviewed and discussed. Next, a series of experiments using AVIRIS image data are performed, using different configurations for the classifier. The data covers a test area established by Purdue University and presents a number of classes (agricultural fields) which are spectrally very similar to each other. The classification accuracy produced by different kernels is investigated as a function of the data dimensionality and compared with the one yielded by the well-known Gaussian Maximum Likelihood classifier. As SVM apply to a pair of classes at a time, a multi-stage classifier structured as a binary tree was developed to deal with the multi-class problem. The tree classifier is initially defined by selecting at each node the most separable pair of classes by using the Bhattacharyya distance as a criterion. These two classes will then be used to define the two descending nodes and the corresponding SVM decision function. This operation is performed at every node across the tree, until the terminal nodes are reached. The required software was developed in MATLAB environment and is also presented in this dissertation.
256

Support Vector Machines na classificação de imagens hiperespectrais / Hyperspectral image classification with support vector machines

Andreola, Rafaela January 2009 (has links)
É de conhecimento geral que, em alguns casos, as classes são espectralmente muito similares e que não é possível separá-las usando dados convencionais em baixa dimensionalidade. Entretanto, estas classes podem ser separáveis com um alto grau de acurácia em espaço de alta dimensão. Por outro lado, classificação de dados em alta dimensionalidade pode se tornar um problema para classificadores paramétricos, como o Máxima Verossimilhança Gaussiana (MVG). Um grande número de variáveis que caracteriza as imagens hiperespectrais resulta em um grande número de parâmetros a serem estimados e, geralmente, tem-se um número limitado de amostras de treinamento disponíveis. Essa condição causa o fenômeno de Hughes que consiste na gradual degradação da acurácia com o aumento da dimensionalidade dos dados. Neste contexto, desperta o interesse a utilização de classificadores não-paramétricos, como é o caso de Support Vector Machines (SVM). Nesta dissertação é analisado o desempenho do classificador SVM quando aplicado a imagens hiperespectrais de sensoriamento remoto. Inicialmente os conceitos teóricos referentes à SVM são revisados e discutidos. Em seguida, uma série de experimentos usando dados AVIRIS são realizados usando diferentes configurações para o classificador. Os dados cobrem uma área de teste da Purdue University e apresenta classes de culturas agrícolas espectralmente muito similares. A acurácia produzida na classificação por diferentes kernels são investigadas em função da dimensionalidade dos dados e comparadas com as obtidas com o classificador MVG. Como SVM é aplicado a um par de classes por vez, desenvolveu-se um classificador multi-estágio estruturado em forma de árvore binária para lidar como problema multi-classe. Em cada nó, a seleção do par de classes mais separáveis é feita pelo critério distância de Bhattacharyya. Tais classes darão origem aos nós descendentes e serão responsáveis por definir a função de decisão SVM. Repete-se este procedimento em todos os nós da árvore, até que reste apenas uma classe por nó, nos chamados nós terminais. Os softwares necessários foram desenvolvidos em ambiente MATLAB e são apresentados na dissertação. Os resultados obtidos nos experimentos permitem concluir que SVM é uma abordagem alternativa válida e eficaz para classificação de imagens hiperespectrais de sensoriamento remoto. / This dissertation deals with the application of Support Vector Machines (SVM) to the classification of remote sensing high-dimensional image data. It is well known that in many cases classes that are spectrally very similar and thus not separable when using the more conventional low-dimensional data, can nevertheless be separated with an high degree of accuracy in high dimensional spaces. Classification of high-dimensional image data can, however, become a challenging problem for parametric classifiers such as the well-known Gaussian Maximum Likelihood. A large number of variables produce an also large number of parameters to be estimated from a generally limited number of training samples. This condition causes the Hughes phenomenon which consists in a gradual degradation of the accuracy as the data dimensionality increases beyond a certain value. Non-parametric classifiers present the advantage of being less sensitive to this dimensionality problem. SVM has been receiving a great deal of attention from the international community as an efficient classifier. In this dissertation it is analyzed the performance of SVM when applied to remote sensing hyper-spectral image data. Initially the more theoretical concepts related to SVM are reviewed and discussed. Next, a series of experiments using AVIRIS image data are performed, using different configurations for the classifier. The data covers a test area established by Purdue University and presents a number of classes (agricultural fields) which are spectrally very similar to each other. The classification accuracy produced by different kernels is investigated as a function of the data dimensionality and compared with the one yielded by the well-known Gaussian Maximum Likelihood classifier. As SVM apply to a pair of classes at a time, a multi-stage classifier structured as a binary tree was developed to deal with the multi-class problem. The tree classifier is initially defined by selecting at each node the most separable pair of classes by using the Bhattacharyya distance as a criterion. These two classes will then be used to define the two descending nodes and the corresponding SVM decision function. This operation is performed at every node across the tree, until the terminal nodes are reached. The required software was developed in MATLAB environment and is also presented in this dissertation.
257

Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare / Characterisation of population diversity from quantified measures of a nonlinear model. Application to hyperbaric diving

Bennani, Youssef 10 December 2015 (has links)
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données. / This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance.
258

Regionalização hidrológica do Estado de Santa Catarina: uma abordagem sazonal e geoestatística baseada em modelos / Hydrologic regionalization of Santa Catarina state: a seasonal and geostatistical approach based on models

Wagner Wolff 12 January 2017 (has links)
A regionalização hidrológica é uma técnica que permite transferir informação de regiões hidrologicamente monitoradas, para regiões com pouco ou sem monitoramento. Sendo assim, é uma ferramenta útil, a qual permite uma avaliação dinâmica dos recursos hídricos. No Brasil e no Estado de Santa Catarina as leis que são as principais referências para a gestão de recursos hídricos utilizam critérios anuais de disponibilidade hídrica, impossibilitando um maior uso em épocas onde a disponibilidade é maior e, assim, afetando o desenvolvimento econômico. As previsões sazonais servem de base para uma gestão e utilização sustentável dos recursos hídricos. A justificativa de não se usar critérios sazonais, talvez seja pelo fato de não existir trabalhos ou ferramentas que contemplam o estado da arte da regionalização hidrológica. O objetivo deste trabalho é fazer a regionalização hidrológica do Estado de Santa Catarina, mediante uma abordagem geoestatística baseada em modelos e na sazonalidade. Foram utilizados estações pluviométricas e fluviométricas disponibilizadas, respectivamente, pela Companhia de Pesquisa de Recursos Minerais (CPRM) e Agência Nacional das Águas (ANA). As estações são distribuídas regularmente e em alta densidade sobre o Estado. Para a modelagem geoestatística, inicialmente foi verificada algumas suposições a serem consideradas, entre elas, a normalidade e a estacionaridade espacial dos dados. Após as suposições terem sido aceitas foi verificado, por meio de testes estatísticos em função da verossimilhança, se a estrutura de dependência espacial do modelo geoestatístico aumentava o desempenho do mesmo, justificando o uso dessa estrutura para a espacialização das variáveis pluviométricas e fluviométricas. Para verificar os pressupostos de uma boa predição, foi avaliada a dispersão dos resíduos das interpolações espaciais, mediante uma validação cruzada. Os resultados mostraram um melhor desempenho para os modelos geoestatísticos com a estrutura de dependência espacial, para todas as variáveis; assim, esses modelos foram utilizados para a interpolação espacial, no qual foi observado pela dispersão dos resíduos uma boa predição. Este trabalho contribui para uma melhor representação espacial de variáveis sazonais no Estado de Santa Catarina e permite um avanço no estado da arte, uma vez que está embasado em critérios de verossimilhança para escolha de modelos que representam melhor o fenômeno estudado no espaço. / Hydrologic regionalization is a technique that allows the transfer of information from regions hydrologically monitored, for regions with little or no monitoring. Therefore, this technique allows a dynamic evaluation of water resources being a useful tool. In Brazil and in Santa Catarina state, the laws that are the main references for the management of water resources use annual criteria of water availability. Thus, using a greater amount of resources when availability is greater is infeasible and affects economic development. Seasonal forecasts provide the basis for sustainable management and use of water resources. The justification for not using seasonal criteria may be because there are no works or tools that contemplate the state of the art of hydrologic regionalization. The aim of this work is to make the hydrologic regionalization of Santa Catarina state, using a geostatistical approach based on models and in seasonality. Data from rain gauge and streamflow stations made available by the Mineral Resources Research Company (CPRM) and National Water Agency (ANA), respectively, were used. These stations have regular distribution and high density within the state. For the geostatistical modeling, some basic assumptions such as data normality and spatial stationarity were verified. After accepting the assumptions it was verified through statistical tests regarding its likelihood, if the structure of spatial dependence of the geostatistical model increase its performance, justifying the use of this structure for the precipitation and streamflow spatialization. To check the assumptions of good prediction, the residue dispersion of the spatial interpolations was evaluated through cross-validation. The results showed a better performance for the geostatiscal models with the spatial dependence structure, both for precipitation and streamflow. Thus, these models were used to the spatial interpolation, observing a good prediction through the residue dispersion. This work contributes to a better spatial representation of seasonal variables in Santa Catarina state and allows an advance in the state of the art, since it is based on likelihood criteria to choose models that better represent the phenomenon studied in space.
259

Estimation and Identification of a DSGE model: an Application of the Data Cloning Methodology / Estimação e identificação de um Modelo DSGE: uma applicação da metodologia data cloning

Pedro Luiz Paulino Chaim 18 January 2016 (has links)
We apply the data cloning method developed by Lele et al. (2007) to estimate the model of Smets and Wouters (2007). The data cloning algorithm is a numerical method that employs replicas of the original sample to approximate the maximum likelihood estimator as the limit of Bayesian simulation-based estimators. We also analyze the identification properties of the model. We measure the individual identification strength of each parameter by observing the posterior volatility of data cloning estimates, and access the identification problem globally through the maximum eigenvalue of the posterior data cloning covariance matrix. Our results indicate that the model is only poorly identified. The system displays bad global identification properties, and most of its parameters seem locally ill-identified. / Neste trabalho aplicamos o método data cloning de Lele et al. (2007) para estimar o modelo de Smets e Wouters (2007). O algoritmo data cloning é um método numérico que utiliza réplicas da amostra original para aproximar o estimador de máxima verossimilhança como limite de estimadores Bayesianos obtidos por simulação. Nós também analisamos a identificação dos parâmetros do modelo. Medimos a identificação de cada parâmetro individualmente ao observar a volatilidade a posteriori dos estimadores de data cloning. O maior autovalor da matriz de covariância a posteriori proporciona uma medida global de identificação do modelo. Nossos resultados indicam que o modelo de Smets e Wouters (2007) não é bem identificado. O modelo não apresenta boas propriedades globais de identificação, e muitos de seus parâmetros são localmente mal identificados.
260

Support Vector Machines na classificação de imagens hiperespectrais / Hyperspectral image classification with support vector machines

Andreola, Rafaela January 2009 (has links)
É de conhecimento geral que, em alguns casos, as classes são espectralmente muito similares e que não é possível separá-las usando dados convencionais em baixa dimensionalidade. Entretanto, estas classes podem ser separáveis com um alto grau de acurácia em espaço de alta dimensão. Por outro lado, classificação de dados em alta dimensionalidade pode se tornar um problema para classificadores paramétricos, como o Máxima Verossimilhança Gaussiana (MVG). Um grande número de variáveis que caracteriza as imagens hiperespectrais resulta em um grande número de parâmetros a serem estimados e, geralmente, tem-se um número limitado de amostras de treinamento disponíveis. Essa condição causa o fenômeno de Hughes que consiste na gradual degradação da acurácia com o aumento da dimensionalidade dos dados. Neste contexto, desperta o interesse a utilização de classificadores não-paramétricos, como é o caso de Support Vector Machines (SVM). Nesta dissertação é analisado o desempenho do classificador SVM quando aplicado a imagens hiperespectrais de sensoriamento remoto. Inicialmente os conceitos teóricos referentes à SVM são revisados e discutidos. Em seguida, uma série de experimentos usando dados AVIRIS são realizados usando diferentes configurações para o classificador. Os dados cobrem uma área de teste da Purdue University e apresenta classes de culturas agrícolas espectralmente muito similares. A acurácia produzida na classificação por diferentes kernels são investigadas em função da dimensionalidade dos dados e comparadas com as obtidas com o classificador MVG. Como SVM é aplicado a um par de classes por vez, desenvolveu-se um classificador multi-estágio estruturado em forma de árvore binária para lidar como problema multi-classe. Em cada nó, a seleção do par de classes mais separáveis é feita pelo critério distância de Bhattacharyya. Tais classes darão origem aos nós descendentes e serão responsáveis por definir a função de decisão SVM. Repete-se este procedimento em todos os nós da árvore, até que reste apenas uma classe por nó, nos chamados nós terminais. Os softwares necessários foram desenvolvidos em ambiente MATLAB e são apresentados na dissertação. Os resultados obtidos nos experimentos permitem concluir que SVM é uma abordagem alternativa válida e eficaz para classificação de imagens hiperespectrais de sensoriamento remoto. / This dissertation deals with the application of Support Vector Machines (SVM) to the classification of remote sensing high-dimensional image data. It is well known that in many cases classes that are spectrally very similar and thus not separable when using the more conventional low-dimensional data, can nevertheless be separated with an high degree of accuracy in high dimensional spaces. Classification of high-dimensional image data can, however, become a challenging problem for parametric classifiers such as the well-known Gaussian Maximum Likelihood. A large number of variables produce an also large number of parameters to be estimated from a generally limited number of training samples. This condition causes the Hughes phenomenon which consists in a gradual degradation of the accuracy as the data dimensionality increases beyond a certain value. Non-parametric classifiers present the advantage of being less sensitive to this dimensionality problem. SVM has been receiving a great deal of attention from the international community as an efficient classifier. In this dissertation it is analyzed the performance of SVM when applied to remote sensing hyper-spectral image data. Initially the more theoretical concepts related to SVM are reviewed and discussed. Next, a series of experiments using AVIRIS image data are performed, using different configurations for the classifier. The data covers a test area established by Purdue University and presents a number of classes (agricultural fields) which are spectrally very similar to each other. The classification accuracy produced by different kernels is investigated as a function of the data dimensionality and compared with the one yielded by the well-known Gaussian Maximum Likelihood classifier. As SVM apply to a pair of classes at a time, a multi-stage classifier structured as a binary tree was developed to deal with the multi-class problem. The tree classifier is initially defined by selecting at each node the most separable pair of classes by using the Bhattacharyya distance as a criterion. These two classes will then be used to define the two descending nodes and the corresponding SVM decision function. This operation is performed at every node across the tree, until the terminal nodes are reached. The required software was developed in MATLAB environment and is also presented in this dissertation.

Page generated in 0.0555 seconds