• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 3
  • 2
  • 1
  • Tagged with
  • 15
  • 15
  • 15
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

The Role of Model Complexity in the Evaluation of Structural Equation Models

Preacher, Kristopher J. 05 August 2003 (has links)
No description available.
12

Teoria da informação e adaptatividade na modelagem de distribuição de espécies. / Information theory and adaptivity in the species distribution modeling.

Rodrigues, Elisângela Silva da Cunha 03 February 2012 (has links)
A modelagem de distribuição de espécies é uma técnica cuja finalidade é estimar modelos baseados em nichos ecológicos. Esses modelos podem auxiliar nos processos de tomadas de decisões, no planejamento e na realização de ações que visem a conservação e a preservação ambiental. Existem diversas ferramentas projetadas para modelagem de distribuição de espécies, dentre elas o framework openModeller, na qual este trabalho está inserido. Várias técnicas de Inteligência Artificial já foram utilizadas para desenvolver algoritmos de modelagem de distribuição de espécies, como Entropia Máxima. No entanto, as ferramentas estatísticas tradicionais não disponibilizam pacotes com o algoritmo de Entropia Máxima, o que é comum para outras técnicas. Além disso, apesar de existir um software gratuito específico para modelagem de distribuição de espécies com o algoritmo de Entropia Máxima, esse software não possui código aberto. Assim, a base deste trabalho é a investigação acerca da modelagem de distribuição de espécies utilizando Entropia Máxima. Desta forma, o objetivo principal é definir diferentes estratégias para o algoritmo de Entropia Máxima no contexto da modelagem de distribuição de espécies. Para atingir esse objetivo, foram estabelecidos um conjunto de alternativas possíveis a serem exploradas e um conjunto de métricas de avaliação e comparação das diferentes estratégias. Os resultados mais importantes desta pesquisa foram: um algoritmo adaptativo de Entropia Máxima, um algoritmo paralelo de Entropia Máxima, uma análise do parâmetro de regularização e um método de seleção de variáveis baseado no princípio da Descrição com Comprimento Mínimo (MDL Minimum Description Length), que utiliza aprendizagem por compressão de dados. / Species distribution modeling is a technique the purpose of which is to estimate models based on ecological niche. These models can assist decision making processes, planning and carrying out actions aiming at environmental conservation and preservation. There are several tools designed for species distribution modeling, such as the open- Modeller framework, in which this work is inserted. Several Artificial Intelligence techniques have been used to develop algorithms for species distribution modeling, such as Maximum Entropy. However, traditional statistical tools do not offer packages with the Maximum Entropy algorithm, which is common to other techniques. Furthermore, although there is specific free software for species distribution modeling with the Maximum Entropy algorithm, this software is not open source. The basis of this work is the investigation of the species distribution modeling using Maximum Entropy. Thus, its aim is to define different strategies for the Maximum Entropy algorithm in the context of the species distribution modeling. For this, a set of possible alternatives to be explored and a set of metrics for evaluation and comparison of the different strategies were established. The most important results were: an adaptive Maximum Entropy algorithm, a parallel Maximum Entropy algorithm, an analysis of the regularization parameter and a variable selection method based on the Minimum Description Length principle, which uses learning by data compression.
13

Teoria da informação e adaptatividade na modelagem de distribuição de espécies. / Information theory and adaptivity in the species distribution modeling.

Elisângela Silva da Cunha Rodrigues 03 February 2012 (has links)
A modelagem de distribuição de espécies é uma técnica cuja finalidade é estimar modelos baseados em nichos ecológicos. Esses modelos podem auxiliar nos processos de tomadas de decisões, no planejamento e na realização de ações que visem a conservação e a preservação ambiental. Existem diversas ferramentas projetadas para modelagem de distribuição de espécies, dentre elas o framework openModeller, na qual este trabalho está inserido. Várias técnicas de Inteligência Artificial já foram utilizadas para desenvolver algoritmos de modelagem de distribuição de espécies, como Entropia Máxima. No entanto, as ferramentas estatísticas tradicionais não disponibilizam pacotes com o algoritmo de Entropia Máxima, o que é comum para outras técnicas. Além disso, apesar de existir um software gratuito específico para modelagem de distribuição de espécies com o algoritmo de Entropia Máxima, esse software não possui código aberto. Assim, a base deste trabalho é a investigação acerca da modelagem de distribuição de espécies utilizando Entropia Máxima. Desta forma, o objetivo principal é definir diferentes estratégias para o algoritmo de Entropia Máxima no contexto da modelagem de distribuição de espécies. Para atingir esse objetivo, foram estabelecidos um conjunto de alternativas possíveis a serem exploradas e um conjunto de métricas de avaliação e comparação das diferentes estratégias. Os resultados mais importantes desta pesquisa foram: um algoritmo adaptativo de Entropia Máxima, um algoritmo paralelo de Entropia Máxima, uma análise do parâmetro de regularização e um método de seleção de variáveis baseado no princípio da Descrição com Comprimento Mínimo (MDL Minimum Description Length), que utiliza aprendizagem por compressão de dados. / Species distribution modeling is a technique the purpose of which is to estimate models based on ecological niche. These models can assist decision making processes, planning and carrying out actions aiming at environmental conservation and preservation. There are several tools designed for species distribution modeling, such as the open- Modeller framework, in which this work is inserted. Several Artificial Intelligence techniques have been used to develop algorithms for species distribution modeling, such as Maximum Entropy. However, traditional statistical tools do not offer packages with the Maximum Entropy algorithm, which is common to other techniques. Furthermore, although there is specific free software for species distribution modeling with the Maximum Entropy algorithm, this software is not open source. The basis of this work is the investigation of the species distribution modeling using Maximum Entropy. Thus, its aim is to define different strategies for the Maximum Entropy algorithm in the context of the species distribution modeling. For this, a set of possible alternatives to be explored and a set of metrics for evaluation and comparison of the different strategies were established. The most important results were: an adaptive Maximum Entropy algorithm, a parallel Maximum Entropy algorithm, an analysis of the regularization parameter and a variable selection method based on the Minimum Description Length principle, which uses learning by data compression.
14

Chemical identification under a poisson model for Raman spectroscopy

Palkki, Ryan D. 14 November 2011 (has links)
Raman spectroscopy provides a powerful means of chemical identification in a variety of fields, partly because of its non-contact nature and the speed at which measurements can be taken. The development of powerful, inexpensive lasers and sensitive charge-coupled device (CCD) detectors has led to widespread use of commercial and scientific Raman systems. However, relatively little work has been done developing physics-based probabilistic models for Raman measurement systems and crafting inference algorithms within the framework of statistical estimation and detection theory. The objective of this thesis is to develop algorithms and performance bounds for the identification of chemicals from their Raman spectra. First, a Poisson measurement model based on the physics of a dispersive Raman device is presented. The problem is then expressed as one of deterministic parameter estimation, and several methods are analyzed for computing the maximum-likelihood (ML) estimates of the mixing coefficients under our data model. The performance of these algorithms is compared against the Cramer-Rao lower bound (CRLB). Next, the Raman detection problem is formulated as one of multiple hypothesis detection (MHD), and an approximation to the optimal decision rule is presented. The resulting approximations are related to the minimum description length (MDL) approach to inference. In our simulations, this method is seen to outperform two common general detection approaches, the spectral unmixing approach and the generalized likelihood ratio test (GLRT). The MHD framework is applied naturally to both the detection of individual target chemicals and to the detection of chemicals from a given class. The common, yet vexing, scenario is then considered in which chemicals are present that are not in the known reference library. A novel variation of nonnegative matrix factorization (NMF) is developed to address this problem. Our simulations indicate that this algorithm gives better estimation performance than the standard two-stage NMF approach and the fully supervised approach when there are chemicals present that are not in the library. Finally, estimation algorithms are developed that take into account errors that may be present in the reference library. In particular, an algorithm is presented for ML estimation under a Poisson errors-in-variables (EIV) model. It is shown that this same basic approach can also be applied to the nonnegative total least squares (NNTLS) problem. Most of the techniques developed in this thesis are applicable to other problems in which an object is to be identified by comparing some measurement of it to a library of known constituent signatures.
15

Aprendiz de descritores de mistura gaussiana / Gaussian mixture descriptors learner

Freitas, Breno Lima de 14 December 2017 (has links)
Submitted by Breno Freitas (brenolimadefreitas@gmail.com) on 2018-01-11T05:18:51Z No. of bitstreams: 1 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) / Rejected by Milena Rubi ( ri.bso@ufscar.br), reason: Bom dia Breno! Além da dissertação, você deve submeter também a carta comprovante devidamente preenchida e assinada pelo orientador. O modelo da carta encontra-se na página inicial do site do Repositório Institucional. Att., Milena P. Rubi Bibliotecária CRB8-6635 Biblioteca Campus Sorocaba on 2018-01-11T12:06:11Z (GMT) / Submitted by Breno Freitas (brenolimadefreitas@gmail.com) on 2018-01-11T14:51:00Z No. of bitstreams: 2 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) atestado-deposito-assinado.pdf: 159376 bytes, checksum: 4d20d8676988e631bc8b46f7c2224bcb (MD5) / Approved for entry into archive by Milena Rubi ( ri.bso@ufscar.br) on 2018-01-12T10:35:56Z (GMT) No. of bitstreams: 2 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) atestado-deposito-assinado.pdf: 159376 bytes, checksum: 4d20d8676988e631bc8b46f7c2224bcb (MD5) / Approved for entry into archive by Milena Rubi ( ri.bso@ufscar.br) on 2018-01-12T10:36:13Z (GMT) No. of bitstreams: 2 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) atestado-deposito-assinado.pdf: 159376 bytes, checksum: 4d20d8676988e631bc8b46f7c2224bcb (MD5) / Made available in DSpace on 2018-01-12T10:36:25Z (GMT). No. of bitstreams: 2 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) atestado-deposito-assinado.pdf: 159376 bytes, checksum: 4d20d8676988e631bc8b46f7c2224bcb (MD5) Previous issue date: 2017-12-14 / Não recebi financiamento / For the last decades, many Machine Learning methods have been proposed aiming categorizing data. Given many tentative models, those methods try to find the one that fits the dataset by building a hypothesis that predicts unseen samples reasonably well. One of the main concerns in that regard is selecting a model that performs well in unseen samples not overfitting on the known data. In this work, we introduce a classification method based on the minimum description length principle, which naturally offers a tradeoff between model complexity and data fit. The proposed method is multiclass, online and is generic in the regard of data representation. The experiments conducted in real datasets with many different characteristics, have shown that the proposed method is statiscally equivalent to the other classical baseline methods in the literature in the offline scenario and it performed better than some when tested in an online scenario. Moreover, the method has proven to be robust to overfitting and data normalization which poses great features a classifier must have in order to deal with large, complex and real-world classification problems. / Ao longo das últimas décadas, diversos métodos de aprendizado de máquina vêm sendo propostos com o intuito de classificar dados. Entre os modelos candidatos, procura-se selecionar um que se ajuste bem aos dados de treinamento, criando uma hipótese que faça boas predições em amostras não analisadas anteriormente. Um dos maiores desafios é selecionar um modelo, cuja hipótese não seja sobre-ajustada aos dados conhecidos, sendo genérica o suficiente para boas predições futuras. Neste trabalho, é apresentado um método de classificação baseado no princípio da descrição mais simples que efetua uma troca benéfica entre a complexidade do modelo e o ajuste aos dados. O método proposto é multiclasse, incremental e pode ser usado em dados com atributos categóricos, numéricos e contínuos. Experimentos conduzidos em bases reais de diversas características mostraram que o método proposto é estatisticamente equivalente à métodos clássicos na literatura para o cenário offline e superior a alguns métodos no cenário de aprendizado incremental. Além disso, o método mostrou-se robusto ao sobre-ajustamento e à normalização dos dados, apresentando características benéficas para um método de classificação que pode ser aplicado nos dias atuais.

Page generated in 0.1298 seconds