• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 75
  • 30
  • 9
  • 8
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 269
  • 47
  • 34
  • 32
  • 24
  • 24
  • 22
  • 22
  • 22
  • 20
  • 20
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Sur la propriété classement et dynamique sous-jacente des systèmes complexes

Deng, Weibing 21 June 2013 (has links) (PDF)
Des procédures de classement sont largement utilisées pour décrire les phénomènes observés dans de nombreux domaines des sciences sociales et naturelles, par exemple la sociologie, l'économie, la linguistique, la démographie, la physique, la biologie, etc.Dans cette thèse, nous nous sommes attachés à l'étude des propriétés de classement et des dynamiques sous-jacentes intégrées dans les systèmes complexes. En particulier,nous nous sommes concentrés sur les classements par score ou par prix dans les systèmes sportifs et les classements d'utilisation des mots ou caractères dans les langues humaines. Le but est de comprendre les mécanismes sous-jacents à ces questions en utilisant les méthodes de la physique statistique, de la statistique bayésienne et de la modélisation multi-agents. Les résultats concrets concernent les aspects suivants.Nous avons tout d'abord traité une étude sur les classements par score/prix dans les systèmes sportifs et analysé 40 échantillons de données dans 12 disciplines sportives différentes. Nous avons trouvé des similitudes frappantes dans différents sports, à savoir le fait que la répartition des résultats/prix suit les lois puissance universelles.Nous avons également montré que le principe de Pareto est largement respecté dans de nombreux systèmes sociaux: ainsi 20% des joueurs accumulent 80% des scores et de l'argent. Les données concernant les matchs de tennis en individuels nous ont révélé que lorsque deux joueurs s'affrontent, la probabilité que le joueur de rang supérieur gagne est liée à la différence de rang des deux adversaires. Afin de comprendre les origines de la mise à l'échelle universelle, nous avons proposé un modèle multi-agents,qui peut simuler les matchs de joueurs à travers différentes compétitions. Les résultats de nos simulations sont cohérents avec les résultats empiriques. L'extension du domaine d'étude de la simulation indique que le modèle est assez robuste par rapport aux modifications de certains paramètres. La loi de Zipf est le comportement le plus régulièrement observé dans la linguistique statistique. Elle a dès lors servi de prototype pour les relations entre rang d'apparitions et fréquence d'apparitions (relations rang-fréquence dans la suite du texte) et les lois d'échelle dans les sciences naturelles. Nous avons étudié plusieurs textes, précisé le domaine de validité de la loi de Zipf, et trouvé que la plage de validité augmente lors du mélange de différents textes. Basé sur l'analyse sémantique latente, nous avons proposé un modèle probabiliste, dans lequel nous avons supposé que les mots sont ajoutés au texte avec des probabilités aléatoires, tandis que leur densité a priori est liée, via la statistique bayésienne, aux caractéristiques générales du lexique mental de l'auteur de ce même texte. Notre modèle explique la loi de Zipf ainsi que ses limites de validité, et la généralise aux hautes et basses fréquences et au hapax legomena.Dans une autre étude, nous avons précisé les relations rang-fréquence pour les caractères chinois. Nous avons choisi d'étudier des textes courts en premier, car pour le bien de l'analyse rang fréquence, les longs textes ne sont que des mélanges de textes plus courts, thématiquement homogènes. Nos résultats ont montré que la loi de Zipf appliqués aux caractères chinois tient parfaitement pour des textes assez courts (quelques milliers de caractères différents). Le même domaine de validité est observé pour les textes courts anglais. Nous avons soutenu que les longs textes chinois montrent une structure hiérarchique à deux couches: des caractères dont la fréquence d'apparition suit une loi puissance (première couche) et des caractères dont l'apparition suit une loi exponentielle (deuxième couche)...
132

Some Domain Decomposition and Convex Optimization Algorithms with Applications to Inverse Problems

Chen, Jixin 15 June 2018 (has links)
Domain decomposition and convex optimization play fundamental roles in current computation and analysis in many areas of science and engineering. These methods have been well developed and studied in the past thirty years, but they still require further study and improving not only in mathematics but in actual engineering computation with exponential increase of computational complexity and scale. The main goal of this thesis is to develop some efficient and powerful algorithms based on domain decomposition method and convex optimization. The topicsstudied in this thesis mainly include two classes of convex optimization problems: optimal control problems governed by time-dependent partial differential equations and general structured convex optimization problems. These problems have acquired a wide range of applications in engineering and also demand a very high computational complexity. The main contributions are as follows: In Chapter 2, the relevance of an adequate inner loop starting point (as opposed to a sufficient inner loop stopping rule) is discussed in the context of a numerical optimization algorithm consisting of nested primal-dual proximal-gradient iterations. To study the optimal control problem, we obtain second order domain decomposition methods by combining Crank-Nicolson scheme with implicit Galerkin method in the sub-domains and explicit flux approximation along inner boundaries in Chapter 3. Parallelism can be easily achieved for these explicit/implicit methods. Time step constraints are proved to be less severe than that of fully explicit Galerkin finite element method. Based on the domain decomposition method in Chapter 3, we propose an iterative algorithm to solve an optimal control problem associated with the corresponding partial differential equation with pointwise constraint for the control variable in Chapter 4. In Chapter 5, overlapping domain decomposition methods are designed for the wave equation on account of prediction-correction" strategy. A family of unit decomposition functions allow reasonable residual distribution or corrections. No iteration is needed in each time step. This dissertation also covers convergence analysis from the point of view of mathematics for each algorithm we present. The main discretization strategy we adopt is finite element method. Moreover, numerical results are provided respectivelyto verify the theory in each chapter. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
133

Classificação de dados imagens em alta dimensionalidade, empregando amostras semi-rotuladas e estimadores para as probabilidades a priori / Classification of high dimensionality image data, using semilabeled samples and estimation of the a priori probabilities

Liczbinski, Celso Antonio January 2007 (has links)
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando, portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas que utilizam amostras não rotuladas e amostras semi-rotuladas para minimizar o problema do tamanho reduzido das amostras de treinamento. Deste modo, técnicas que utilizam amostras semi-rotuladas, tornamse um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo foi dado prosseguimento à metodologia investigada por Lemos (2003), o qual implementou a utilização de amostras semi-rotuladas para fins de estimação dos parâmetros do classificador Máxima Verossimilhança Gaussiana (MVG). A contribuição do presente trabalho consistiu na inclusão de uma etapa adicional, introduzindo a estimação das probabilidades a priori P( wi) referentes às classes envolvidas para utilização no classificador MVG. Desta forma, utilizando-se funções de decisão mais ajustadas à realidade da cena analisada, obteve-se resultados mais acurados no processo de classificação. Os resultados atestaram que com um número limitado de amostras de treinamento, técnicas que utilizam algoritmos adaptativos, mostram-se eficientes em reduzir o Efeito de Hughes. Apesar deste Efeito, quanto à acurácia, em todos os casos o modelo quadrático mostrou-se eficiente através do algoritmo adaptativo. A conclusão principal desta dissertação é que o método do algoritmo adaptativo é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas. / In natural scenes there are some cases in which some of the land-cover classes involved are spectrally very similar, i.e., their first order statistics are nearly identical. In these cases, the more traditional sensor systems such as Landsat-TM and Spot, among others usually result in a thematic image low in accuracy. On the other hand, it is well known that high-dimensional image data allows for the separation of classes that are spectrally very similar, provided that their second-order statistics differ significantly. The classification of high-dimensional image data, however, poses some new problems such as the estimation of the parameters in a parametric classifier. As the data dimensionality increases, so does the number of parameters to be estimated, particularly in the covariance matrix. In real cases, however, the number of training samples available is usually limited preventing therefore a reliable estimation of the parameters required by the classifier. The paucity of training samples results in a low accuracy for the thematic image which becomes more noticeable as the data dimensionality increases. This condition is known as the Hughes Phenomenon. Different approaches to mitigate the Hughes Phenomenon investigated by many authors have been reported in the literature. Among the possible alternatives that have been proposed, the so called semi-labeled samples has shown some promising results in the classification of remote sensing high dimensional image data, such as AVIRIS data. In this dissertation the approach proposed by Lemos (2003) is further investigated to increase the reliability in the estimation of the parameters required by the Gaussian Maximum Likelihood (GML) classifier. In this dissertation, we propose a methodology to estimate the a priory probabilities P( i) required by the GMV classifier. It is expected that a more realistic estimation of the values for the a priory probabilities well help to increase the accuracy of the thematic image produced by the GML classifier. The experiments performed in this study have shown an increase in the accuracy of the thematic image, suggesting the adequacy of the proposed methodology.
134

Classificação de dados imagens em alta dimensionalidade, empregando amostras semi-rotuladas e estimadores para as probabilidades a priori / Classification of high dimensionality image data, using semilabeled samples and estimation of the a priori probabilities

Liczbinski, Celso Antonio January 2007 (has links)
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando, portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas que utilizam amostras não rotuladas e amostras semi-rotuladas para minimizar o problema do tamanho reduzido das amostras de treinamento. Deste modo, técnicas que utilizam amostras semi-rotuladas, tornamse um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo foi dado prosseguimento à metodologia investigada por Lemos (2003), o qual implementou a utilização de amostras semi-rotuladas para fins de estimação dos parâmetros do classificador Máxima Verossimilhança Gaussiana (MVG). A contribuição do presente trabalho consistiu na inclusão de uma etapa adicional, introduzindo a estimação das probabilidades a priori P( wi) referentes às classes envolvidas para utilização no classificador MVG. Desta forma, utilizando-se funções de decisão mais ajustadas à realidade da cena analisada, obteve-se resultados mais acurados no processo de classificação. Os resultados atestaram que com um número limitado de amostras de treinamento, técnicas que utilizam algoritmos adaptativos, mostram-se eficientes em reduzir o Efeito de Hughes. Apesar deste Efeito, quanto à acurácia, em todos os casos o modelo quadrático mostrou-se eficiente através do algoritmo adaptativo. A conclusão principal desta dissertação é que o método do algoritmo adaptativo é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas. / In natural scenes there are some cases in which some of the land-cover classes involved are spectrally very similar, i.e., their first order statistics are nearly identical. In these cases, the more traditional sensor systems such as Landsat-TM and Spot, among others usually result in a thematic image low in accuracy. On the other hand, it is well known that high-dimensional image data allows for the separation of classes that are spectrally very similar, provided that their second-order statistics differ significantly. The classification of high-dimensional image data, however, poses some new problems such as the estimation of the parameters in a parametric classifier. As the data dimensionality increases, so does the number of parameters to be estimated, particularly in the covariance matrix. In real cases, however, the number of training samples available is usually limited preventing therefore a reliable estimation of the parameters required by the classifier. The paucity of training samples results in a low accuracy for the thematic image which becomes more noticeable as the data dimensionality increases. This condition is known as the Hughes Phenomenon. Different approaches to mitigate the Hughes Phenomenon investigated by many authors have been reported in the literature. Among the possible alternatives that have been proposed, the so called semi-labeled samples has shown some promising results in the classification of remote sensing high dimensional image data, such as AVIRIS data. In this dissertation the approach proposed by Lemos (2003) is further investigated to increase the reliability in the estimation of the parameters required by the Gaussian Maximum Likelihood (GML) classifier. In this dissertation, we propose a methodology to estimate the a priory probabilities P( i) required by the GMV classifier. It is expected that a more realistic estimation of the values for the a priory probabilities well help to increase the accuracy of the thematic image produced by the GML classifier. The experiments performed in this study have shown an increase in the accuracy of the thematic image, suggesting the adequacy of the proposed methodology.
135

Estima??o bayesiana no modelo pot?ncia normal bimodal assim?trico

Souza, Isaac Jales Costa 28 January 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-01-13T12:23:37Z No. of bitstreams: 1 IsaacJalesCostaSouza_DISSERT.pdf: 808186 bytes, checksum: 0218f6e40a4dfea5b56a9d90f17e0bfb (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-01-23T13:11:35Z (GMT) No. of bitstreams: 1 IsaacJalesCostaSouza_DISSERT.pdf: 808186 bytes, checksum: 0218f6e40a4dfea5b56a9d90f17e0bfb (MD5) / Made available in DSpace on 2017-01-23T13:11:35Z (GMT). No. of bitstreams: 1 IsaacJalesCostaSouza_DISSERT.pdf: 808186 bytes, checksum: 0218f6e40a4dfea5b56a9d90f17e0bfb (MD5) Previous issue date: 2016-01-28 / Neste trabalho ? apresentada uma abordagem bayesiana dos modelos pot?ncia normal bimodal (PNB) e pot?ncia normal bimodal assim?trico (PNBA). Primeiramente, apresentamos o modelo PNB e especificamos para este prioris n?o informativas e informativas do par?metroque concentra a bimodalidade (?). Em seguida, obtemos a distribui??o a posteriori pelo m?todo MCMC, o qual testamos a viabilidade de seu uso a partir de um diagn?stico de converg?ncia. Depois, utilizamos diferentes prioris informativas para ? e fizemos a an?lise de sensibilidadecom o intuito de avaliar o efeito da varia??o dos hiperpar?metros na distribui??o a posteriori. Tamb?m foi feita uma simula??o para avaliar o desempenho do estimador bayesiano utilizando prioris informativas. Constatamos que a estimativa da moda a posteriori apresentou em geralresultados melhores quanto ao erro quadratico m?dio (EQM) e vi?s percentual (VP) quando comparado ao estimador de m?xima verossimilhan?a. Uma aplica??o com dados bimodais reais foi realizada. Por ?ltimo, introduzimos o modelo de regress?o linear com res?duos PNB. Quanto ao modelo PNBA, tamb?m especificamos prioris informativas e n?o informativas para os par?metros de bimodalidade e assimetria. Fizemos o diagn?stico de converg?ncia para o m?todo MCMC, que tamb?m foi utilizado para obter a distribui??o a posteriori. Fizemos uma an?lise de sensibilidade, aplicamos dados reais no modelo e introduzimos o modelo de regress?o linear com res?duos PNBA. / In this paper it is presented a Bayesian approach to the bimodal power-normal (BPN) models and the bimodal asymmetric power-normal (BAPN). First, we present the BPN model, specifying its non-informative and informative parameter ? (bimodality). We obtain the posterior distribution by MCMC method, whose feasibility of use we tested from a convergence diagnose. After that, We use different informative priors for ? and we do a sensitivity analysis in order to evaluate the effect of hyperparameters variation on the posterior distribution. Also, it is performed a simulation to evaluate the performance of the Bayesian estimator using informative priors. We noted that the Bayesian method shows more satisfactory results when compared to the maximum likelihood method. It is performed an application with bimodal data. Finally, we introduce the linear regression model with BPN error. As for the BAPN model we also specify informative and uninformative priors for bimodality and asymmetry parameters. We do the MCMC Convergence Diagnostics, which is also used to obtain the posterior distribution. We do a sensitivity analysis, applying actual data in the model and we introducing the linear regression model with PNBA error.
136

Knowledge-based image segmentation using sparse shape priors and high-order MRFs / Segmentation d’images avec des a priori de forme parcimonieux et des champs de Markov aléatoires d’ordre supérieur

Xiang, Bo 28 November 2013 (has links)
Nous présentons dans cette thèse une approche nouvelle de la segmentation d’images, avec des descripteurs a priori utilisant des champs de Markov d’ordre supérieur. Nous représentons le modèle de forme par un graphe de distribution de points qui décrit les informations a priori des invariants de pose grâce à des cliques L1 discrètes d’ordre supérieur. Chaque clique de triplet décrit les variations statistiques locales de forme par des mesures d’angle,ce qui assure l’invariance aux transformations globales (translation, rotation et échelle). L’apprentissage d’une structure de graphe discret d’ordre supérieur est réalisé grâce à l’apprentissage d’un champ de Markov aléatoire utilisant une décomposition duale, ce qui renforce son efficacité tout en préservant sa capacité à rendre compte des variations.Nous introduisons la connaissance a priori d’une manière innovante pour la segmentation basée sur un modèle. Le problème de la segmentation est ici traité par estimation statistique d’un maximum a posteriori (MAP). L’optimisation des paramètres de la modélisation- c’est à dire de la position des points de contrôle - est réalisée par le calcul d’une fonction d’énergie globale de champs de Markov (MRF). On combine ainsi les calculs statistiques régionaux et le suivi des frontières avec la connaissance a priori de la forme.Les descripteurs invariants sont estimés par des potentiels de Markov d’ordre 2, tandis que les caractéristiques régionales sont transposées dans un espace de caractéristiques et calculées grâce au théorème de la Divergence.De plus, nous proposons une nouvelle approche pour la segmentation conjointe de l’image et de sa modélisation ; cette méthode permet d’obtenir une segmentation plus fine lorsque la délimitation précise d’un objet est recherchée. Un modèle graphique combinant l’information a priori et les informations de pixel est développé pour réaliser l’unité des modules "top-down" et "bottom-up". La cohérence entre l’image et sa modélisation est assurée par une décomposition qui associe les parties du modèle avec la labellisation de chaque pixel.Les deux champs de Markov d’ordre supérieur considérés sont optimisés par les algorithmes de l’état de l’art. Les résultats prometteurs dans les domaines de la vision par ordinateur et de l’imagerie médicale montrent le potentiel de cette méthode appliquée à la segmentation. / In this thesis, we propose a novel framework for knowledge-based segmentation using high-order Markov Random Fields (MRFs). We represent the shape model as a point distribution graphical model which encodes pose invariant shape priors through L1 sparse higher order cliques. Each triplet clique encodes the local shape variation statistics on the angle measurements which inherit invariance to global transformations (i.e. translation,rotation and scale). A sparse higher-order graph structure is learned through MRF training using dual decomposition, producing boosting efficiency while preserving its ability to represent the shape variation.We incorporate the prior knowledge in a novel framework for model-based segmentation.We address the segmentation problem as a maximum a posteriori (MAP) estimation in a probabilistic framework. A global MRF energy function is defined to jointly combine regional statistics, boundary support as well as shape prior knowledge for estimating the optimal model parameters (i.e. the positions of the control points). The pose-invariant priors are encoded in second-order MRF potentials, while regional statistics acting on a derived image feature space can be exactly factorized using Divergence theorem. Furthermore, we propose a novel framework for joint model-pixel segmentation towardsa more refined segmentation when exact boundary delineation is of interest. Aunified model-based and pixel-driven integrated graphical model is developed to combine both top-down and bottom-up modules simultaneously. The consistency between the model and the image space is introduced by a model decomposition which associates the model parts with pixels labeling. Both of the considered higher-order MRFs are optimized efficiently using state-of the-art MRF optimization algorithms. Promising results on computer vision and medical image applications demonstrate the potential of the proposed segmentation methods.
137

Classificação de dados imagens em alta dimensionalidade, empregando amostras semi-rotuladas e estimadores para as probabilidades a priori / Classification of high dimensionality image data, using semilabeled samples and estimation of the a priori probabilities

Liczbinski, Celso Antonio January 2007 (has links)
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando, portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas que utilizam amostras não rotuladas e amostras semi-rotuladas para minimizar o problema do tamanho reduzido das amostras de treinamento. Deste modo, técnicas que utilizam amostras semi-rotuladas, tornamse um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo foi dado prosseguimento à metodologia investigada por Lemos (2003), o qual implementou a utilização de amostras semi-rotuladas para fins de estimação dos parâmetros do classificador Máxima Verossimilhança Gaussiana (MVG). A contribuição do presente trabalho consistiu na inclusão de uma etapa adicional, introduzindo a estimação das probabilidades a priori P( wi) referentes às classes envolvidas para utilização no classificador MVG. Desta forma, utilizando-se funções de decisão mais ajustadas à realidade da cena analisada, obteve-se resultados mais acurados no processo de classificação. Os resultados atestaram que com um número limitado de amostras de treinamento, técnicas que utilizam algoritmos adaptativos, mostram-se eficientes em reduzir o Efeito de Hughes. Apesar deste Efeito, quanto à acurácia, em todos os casos o modelo quadrático mostrou-se eficiente através do algoritmo adaptativo. A conclusão principal desta dissertação é que o método do algoritmo adaptativo é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas. / In natural scenes there are some cases in which some of the land-cover classes involved are spectrally very similar, i.e., their first order statistics are nearly identical. In these cases, the more traditional sensor systems such as Landsat-TM and Spot, among others usually result in a thematic image low in accuracy. On the other hand, it is well known that high-dimensional image data allows for the separation of classes that are spectrally very similar, provided that their second-order statistics differ significantly. The classification of high-dimensional image data, however, poses some new problems such as the estimation of the parameters in a parametric classifier. As the data dimensionality increases, so does the number of parameters to be estimated, particularly in the covariance matrix. In real cases, however, the number of training samples available is usually limited preventing therefore a reliable estimation of the parameters required by the classifier. The paucity of training samples results in a low accuracy for the thematic image which becomes more noticeable as the data dimensionality increases. This condition is known as the Hughes Phenomenon. Different approaches to mitigate the Hughes Phenomenon investigated by many authors have been reported in the literature. Among the possible alternatives that have been proposed, the so called semi-labeled samples has shown some promising results in the classification of remote sensing high dimensional image data, such as AVIRIS data. In this dissertation the approach proposed by Lemos (2003) is further investigated to increase the reliability in the estimation of the parameters required by the Gaussian Maximum Likelihood (GML) classifier. In this dissertation, we propose a methodology to estimate the a priory probabilities P( i) required by the GMV classifier. It is expected that a more realistic estimation of the values for the a priory probabilities well help to increase the accuracy of the thematic image produced by the GML classifier. The experiments performed in this study have shown an increase in the accuracy of the thematic image, suggesting the adequacy of the proposed methodology.
138

Estimação de parâmetros de populações de plantas daninhas usando inferência Bayesiana / Estimation of the parameters of weeds population using Bayesian inference

Marcel Rodrigues Lopes 20 April 2007 (has links)
O banco de sementes de plantas daninhas pode vir a ser um sério problema para a atividade agrícola por manter infestações por longos períodos. A dinâmica da população de plantas daninhas pode ser representada por modelos matemáticos que relaciona as densidades de sementes produzidas e de plântulas em áreas de cultivo. Os valores dos parâmetros dos modelos podem ser inferidos diretamente de experimentação e análise estatística. O presente trabalho tem por objetivo estimar parâmetros de populações das plantas daninhas anuais denominadas Digitaria ciliares, Panicum maximum e Euphorbia heterophylla e avaliar um modelo espacial com 2 e 3 parâmetros, a partir de um experimento conduzido em cultura de Zea mays (milho) usando inferência Bayesiana. / The seeds bank of weed could be a serious problem to the agricultural activity because it maintains infestations for long periods. The dynamics of weed populations can be described by mathematical models that relates the produced seeds and seedlings densities in areas of crop. The values of the parameters of the models can be inferred from experimentation and statistics analysis. The objective of this work is to estimate parameters of anual weed populations denoted Digitaria ciliares, Panicum maximum e Euphorbia heterophylla and evaluate a spatial model with 2 and 3 parameters from experimental data of Zea mays (corn) fields using Bayesian inference.
139

Inferência bayesiana em modelos de regressão beta e beta inflacionados / Bayesian inference in beta and inflated beta regression models

Nogarotto, Danilo Covaes, 1987- 07 April 2013 (has links)
Orientador: Caio Lucidius Naberezny Azevedo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-23T07:11:52Z (GMT). No. of bitstreams: 1 Nogarotto_DaniloCovaes_M.pdf: 12817108 bytes, checksum: 0e5e0de542d707f4023f5ef62dc40a82 (MD5) Previous issue date: 2013 / Resumo: No presente trabalho desenvolvemos ferramentas de inferência bayesiana para modelos de regressão beta e beta inflacionados, em relação à estimação paramétrica e diagnóstico. Trabalhamos com modelos de regressão beta não inflacionados, inflacionados em zero ou um e inflacionados em zero e um. Devido à impossibilidade de obtenção analítica das posteriores de interesse, tais ferramentas foram desenvolvidas através de algoritmos MCMC. Para os parâmetros da estrutura de regressão e para o parâmetro de precisão exploramos a utilização de prioris comumente empregadas em modelos de regressão, bem como prioris de Jeffreys e de Jeffreys sob independência. Para os parâmetros das componentes discretas, consideramos prioris conjugadas. Realizamos diversos estudos de simulação considerando algumas situações de interesse prático com o intuito de comparar as estimativas bayesianas com as frequentistas e também de estudar a sensibilidade dos modelos _a escolha de prioris. Um conjunto de dados da área psicométrica foi analisado para ilustrar o potencial do ferramental desenvolvido. Os resultados indicaram que há ganho ao se considerar modelos que contemplam as observações inflacionadas ao invés de transformá-las a fim de utilizar modelos não inflacionados / Abstract: In the present work we developed Bayesian tools, concerning parameter estimation and diagnostics, for noninflated, zero inflated, one inflated and zero-one inflated beta regression models. Due to the impossibility of obtaining the posterior distributions of interest, analytically, all these tools were developed through MCMC algorithms. For the regression and precision parameters we exploited the using of prior distributions commonly considered in regression models as well as Jeffreys and independence Jeffreys priors. For the parameters related to the discrete components, we considered conjugate prior distributions. We performed simulation studies, considering some situations of practical interest, in order to compare the Bayesian and frequentist estimates as well as to evaluate the sensitivity of the models to the prior choice. A psychometric real data set was analyzed to illustrate the performance of the developed tools. The results indicated that there is an overall improvement in using models that consider the inflated observations compared to transforming these observations in order to use noninflated models / Mestrado / Estatistica / Mestre em Estatística
140

Modélisation multivariée de champs texturaux : application à la classification d'images. / Multivariate modeling of texture space : image classification application

Schutz, Aurélien 15 December 2014 (has links)
Le travail présenté dans cette thèse a pour objectif de proposer un algorithme de classification supervisée d’images texturées basée sur la modélisation multivariée de champs texturaux. Inspiré des algorithmes de classification dits à « Sac de Mots Visuels » (SMV), nous proposons une extension originale au cas des descripteurs paramétriques issus de la modélisation multivariée des coefficients des sous-bandes d’une décomposition en ondelettes. Différentes contributions majeures de cette thèse peuvent être mises en avant. La première concerne l’introduction d’une loi a priori intrinsèque à l’espace des descripteurs par la définition d’une loi gaussienne concentrée. Cette dernière étant caractérisée par un barycentre ¯_ et une varianceσ2, nous proposons un algorithme d’estimation de ces deux quantités. Nous proposons notamment une application au cas des modèles multivariés SIRV ( Spherically Invariant Random Vector ), en séparant le problème complexe d’estimationdu barycentre comme la résolution de deux problèmes d’estimation plus simples ( un sur la partie gaussienne et un surle multiplieur ). Afin de prendre en compte la diversité naturelle des images texturées ( contraste, orientation, . . . ), nousproposons une extension au cas des modèles de mélanges permettant ainsi de construire le dictionnaire d’apprentissage.Enfin, nous validons cet algorithme de classification sur diverses bases de données d’images texturées et montrons de bonnes performances de classification vis-à-vis d’autres algorithmes de la littérature. / The prime objective of this thesis is to propose an unsupervised classification algorithm of textured images based on multivariate stochastic models. Inspired from classification algorithm named "Bag of Words" (BoW), we propose an original extension to parametric descriptors issued from the multivariate modeling of wavelet subband coefficients. Some major contributions of this thesis can be outlined. The first one concerns the introduction of an intrinsic prior on the parameter space by defining a Gaussian concentrated distribution. This latter being characterized by a centroid ¯_ and a variance _2,we propose an estimation algorithm for those two quantities. Next, we propose an application to the multivariate SIRV (Spherically Invariant Random Vector) model, by resolving the difficult centroid estimation problem as the solution of two simpler ones (one for the Gaussian part and one for the multiplier part). To handle with the intra-class diversity of texture images (scene enlightenment, orientation . . . ), we propose an extension to mixture models allowing the construction of the training dictionary. Finally, we validate this classification algorithm on various texture image databases and show interesting classification performances compared to other state-of-the-art algorithms.

Page generated in 0.0456 seconds