• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • 31
  • 9
  • 7
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 157
  • 157
  • 37
  • 32
  • 32
  • 31
  • 24
  • 24
  • 23
  • 22
  • 22
  • 19
  • 19
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Robust recognition of facial expressions on noise degraded facial images

Sheikh, Munaf January 2011 (has links)
<p>We investigate the use of noise degraded facial images in the application of facial expression recognition. In particular, we trained Gabor+SVMclassifiers to recognize facial expressions images with various types of noise. We applied Gaussian noise, Poisson noise, varying levels of salt and pepper noise, and speckle noise to noiseless facial images. Classifiers were trained with images without noise and then tested on the images with noise. Next, the classifiers were trained using images with noise, and then on tested both images that had noise, and images that were noiseless. Finally, classifiers were tested on images while increasing the levels of salt and pepper in the test set. Our results reflected distinct degradation of recognition accuracy. We also discovered that certain types of noise, particularly Gaussian and Poisson noise, boost recognition rates to levels greater than would be achieved by normal, noiseless images. We attribute this effect to the Gaussian envelope component of Gabor filters being sympathetic to Gaussian-like noise, which is similar in variance to that of the Gabor filters. Finally, using linear regression, we mapped a mathematical model to this degradation and used it to suggest how recognition rates would degrade further should more noise be added to the images.</p>
92

Índices de capacidade do processo para distribuições não normais: uma aplicação na indústria metalúrgica / Process capability índices for non-normal distributions: an application in the metallurgical industry

Patricia Shizue Matsumura Ueda Gonzalez 15 May 2013 (has links)
Recentemente a análise de capacidade do processo para dados com distribuição não normal começou a ser explorada, porém são raras as referências em língua portuguesa que abordem este assunto. Este trabalho apresenta os principais índices para análise da capacidade do processo com dados não normais encontrados na literatura, sendo o primeiro deles o método proposto por Clements em 1989, o segundo, proposto por Pearn e Chen (1997) e o terceiro método apresentado é o proposto por Chen e Ding em 2001. Os métodos de Clements (1989) e Pearn e Chen (1997) são parecidos em muitos aspectos, mas cada um deles apresenta uma novidade em relação ao cálculo dos índices de capacidade. Em comum, ambos os métodos apresentam índices semelhantes aos índices tradicionais, que supõem normalidade dos dados. O método de Chen e Ding (2001) traz como novidade o uso do índice proposto por eles para a estimação do número de itens não conformes apresentados pelo processo em estudo. Por fim, dois estudos de caso são apresentados neste trabalho. No primeiro deles tem-se a comparação entre os métodos de Clements (1989) e de Pearn e Chen (1997) para que se conclua sobre qual dos métodos é o melhor para o cálculo da capacidade do processo não normal. No segundo estudo de caso, todos os três métodos apresentados neste trabalho são aplicados em um conjunto de dados reais, obtidos de uma indústria metalúrgica. Para execução das análises nos estudos de caso, foi aplicado o software livre R versão 2.10. Os resultados apresentados mostram que o método proposto por Pearn e Chen (1997) é mais eficiente do que o proposto por Clements (1989) por considerar a assimetria do processo. Quanto ao processo da indústria metalúrgica observou-se que a etapa analisada é relativamente capaz. / The analysis of process capability for non-normal distribution data started to be explored recently, but is rare references that address this issue in Portuguese. This dissertation presents the main indices for process capability analysis for nonnormal data. The first method was proposed in 1989 by Clements, the second was proposed by Pearn e Chen (1997) and the third was proposed by Chen e Ding in 2001. The methods of Clements (1989) and Pearn e Chen (1997) are similar in many aspects, but each presents something new in the calculation of capability indices. In common, both methods have indices similar to the traditional indices, for normal data. The method proposed by Chen e Ding (2001) innovates using the index in the estimative of number of non-conforming in the process. Finally, two case studies are presented. The first compares the methods of Clement (1989) and Pearn e Chen (1997) to show the best method of calculation the capability of non-normal process. In the second, the three methods showing in this dissertation are applied in a metallurgical industry data. The R software version 2.10 was used in the analysis. The results show that the method proposed by Pearn and Chen (1997) is more efficient than that proposed by Clements (1989) for considering the asymmetry of the process. And the metallurgical process stage analyzed is relatively capable.
93

Modelagem condicional especÃfica da gestÃo de risco de mercado nos BRIC / Specific conditional modeling of risk management market in BRIC

Francisco RogÃrio Gomes Cruz 18 January 2013 (has links)
nÃo hà / As economias emergentes que compÃem os BRIC, apesar de serem caracterizadas por heterogeneidades marcantes em termos econÃmicos, sociais e polÃticos, apresentam evidÃncias empÃricas sobre convergÃncia parcial e integraÃÃo financeira. Neste sentido, este trabalho agrega a discussÃo sobre gestÃo de risco dos principais Ãndices de mercado dos BRIC atravÃs do Value at Risk, em sua versÃo paramÃtrica gaussiana incondicional e extensÃes que acomodam as violaÃÃes sobre a nÃo normalidade e a heterocedasticidade dos retornos diÃrios. Corroborando estudos especÃficos para cada economia, Jianshe (2007) para o mercado chinÃs, Karmakar (2005) para o indiano e Thupayagale (2010) para o russo, evidencia-se ser necessÃrio adaptar o arcabouÃo visando modelar a idiossincrasia estatÃstica da sÃrie temporal dos Ãndices, recorrendo a valores crÃticos associados à distribuiÃÃo de probabilidade mais adequada, alÃm da modelagem da evoluÃÃo condicional do risco. O trabalho ainda oferece uma mÃtrica dinÃmica de performance risco-retorno dos Ãndices sob a Ãtica dos investidores locais. / Although the bloc labeled BRIC is composed of emerging economies characterized by heterogeneity in economic, social and political aspects, there are empirical evidences about the convergence and partial financial integration. In this sense, we address the risk management of most relevant BRIC market indices through Value at Risk approach, based on a parametric Gaussian and unconditional version, and also extending it intending to accommodate violations of heteroscedasticity and non-normality of daily returns. Corroborating previous and specific evidences, as Jianshe (2007) for the Chinese market, Karmakar (2005) for the Indian and Thupayagale (2010) for Russian, we are able to show that it is necessary to adapt the canonical framework, because of the statistical idiosyncrasies of time series, using the critical values related to the best fitting probability distribution, and modeling the evolution of the conditional risk. We also provide a dynamic measure of risk-return performance of theses indices from the perspective of local investors.
94

Misturas finitas de misturas de escala skew-normal / Mixtures modelling using scale mixtures of skew-normal distribution

Basso, Rodrigo Marreiro 03 December 2009 (has links)
Orientador: Victor Hugo Lachos Davila / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-13T07:03:11Z (GMT). No. of bitstreams: 1 Basso_RodrigoMarreiro_M.pdf: 3130269 bytes, checksum: 85e95beb812a4ec069f39f8b9c79681a (MD5) Previous issue date: 2009 / Resumo: Nesse trabalho será considerada uma classe flexível de modelos usando misturas finitas de distribuições da classe de misturas de escala skew-normal. O algoritmo EM é empregado para se obter estimativas de máxima verossimilhança de maneira iterativa, sendo discutido com maior ênfase para misturas de distribuições skew-normal, skew-t, skew-slash e skew-normal contaminada. Também será apresentado um método geral para aproximar a matrix de covariância assintótica das estimativas de máxima verossimilhança. Resultados obtidos da análise de quatro conjuntos de dados reais ilustram a aplicabilidade da metodologia proposta / Abstract: In this work we consider a flexible class of models using finite mixtures of multivariate scale mixtures of skew-normal distributions. An EM-type algorithm is employed for iteratively computing maximum likelihood estimates and this is discussed with emphasis on finite mixtures of skew-normal, skew-t, skew-slash and skew-contaminated normal distributions. A general information-based method for approximating the asymptotic covariance matrix of the maximum likelihood estimates is also presented. Results obtained from the analysis of four real data sets are reported illustrating the usefulness of the proposed methodology / Mestrado / Mestre em Estatística
95

Distribuição de probabilidade e dimensionamento amostral para tamanho de partícula em gramíneas forrageiras / Probability distribution and sample dimension for particle size in forage grasses

Claudia Fernanda Navarette López 16 January 2009 (has links)
O objetivo deste trabalho foi identificar a distribuição de probabilidade da variável tamanho de partícula em gramíneas forrageiras e fazer um dimensionamento amostral. Para isto foi realizada uma analise exploratória dos dados obtidos de um experimento planejado em blocos casualizados, a cada sub-amostra do conjunto de dados foram ajustadas as distribuições normal, gama, beta e Weibull. Foram realizados os testes de aderência não paramétricos de Kolmogorov-Smirnov, Lilliefos, Cramer-von Mises e Anderson-Darling para avaliar o ajuste as distribuições. A estimativa do valor do logaritmo da função de máxima verossimilhança e indicativo da distribuição que melhor descreveu o conjunto de dados, assim como os critérios de informação de Akaike (AIC) e de informação bayesiano (BIC). Foram feitas simulações a partir dos parâmetros obtidos e feitos os testes não paramétricos para avaliar o ajuste com diferentes tamanhos de amostras. Encontrou-se que os dados n~ao seguem a distribuição normal, pois há assimetria nos histogramas melhor descritos pelas distribuições beta e Weibull. Os testes mostraram que as distribuições gama, beta e Weibull ajustam-se melhor aos dados porem pelo maior valor do logaritmo da função de verossimilhança, assim como pelos valores AIC e BIC, o melhor ajuste foi dado pela distribuição Weibull. As simulações mostraram que com os tamanhos n de 2 e 4 com 10 repetições cada, as distribuições gama e Weibull apresentaram bom ajuste aos dados, a proporção que o n cresce a distribuição dos dados tende a normalidade. O dimensionamento dado pela Amostra Aleatória Simples (ASA), mostrou que o tamanho 6 de amostra e suficiente, para descrever a distribuição de probabilidade do tamanho de partícula em gramíneas forrageiras / The purpose of this study was to identify the probability distribution of variable particle size in forages grasses and to do a sample dimension. For this was carried out an exploratory analysis of the data obtained from the experiment planned in randomized blocks. Each sample of the overall data was adjusted to Normal, Gama, Beta and Weibull distributions. Tests of adhesion not parametric of Kolmogorov-Smirnov, Lilliefos, Cramer-von Mises and Anderson-Darling were conducted to indicate the adjustment at the distributions. The estimate of the value of the logarithm of function of maximum likelihood is indicative of distribution that better describes the data set, as well as information criteria of Akaike (AIC) and Bayesian information (BIC). Simulations from parameters obtained were made and tests not parametric to assess the t with dierent sizes of samples were made too. It was found that data are not normal, because have asymmetry in the histograms, better described by Beta and Weibull distributions. Tests showed that Gamma, Beta and Weibull distributions, have a ts better for the data; for the highest value in the logarithm of the likelihood function as well as smaller AIC and BIC, best t was forWeibull distribution. Simulations showed that with 2 and 4 sizes (n), with 10 repeat each one, the Gama and Weibull distributions showed good t to data, as the proportion in which n grows, distribution of data tends to normality. Dimensioning by simple random sample (ASA), showed that 6 is a sucient sample size to describe probability distribution for particle size in forage grasses.
96

Melhoramento do resíduo de Wald em modelos lineares generalizados / Improvement of Wald residual in generalized linear models

Mariana Ragassi Urbano 18 December 2008 (has links)
A teoria dos modelos lineares generalizados é muito utilizada na estatística, para a modelagem de observações provenientes da distribuição Normal, mas, principalmente, na modelagem de observações cuja distribuição pertença à família exponencial de distribuições. Alguns exemplos são as distribuições binomial, gama, normal inversa, dentre outras. Ajustado um modelo, para vericar a adequação do ajuste, são aplicadas técnicas de diagnósticos e feita uma análise de resíduos. As propriedades dos resíduos para modelos lineares generalizados não são muito conhecidas e resultados assintóticos são o único recurso. Este trabalho teve como objetivo estudar as propriedades assintóticas do resíduo de Wald, e realizar correções para que sua distribuição se aproxime de uma distribuição normal padrão. Uma aplicação das correções para o resíduo de Wald foi feita para cinco conjuntos de dados. Em dois conjuntos, a variável resposta apresentava-se na forma de contagem, e para a modelagem utilizou-se a distribuição de Poisson. Dois outros conjuntos são provenientes de delineamentos experimentais inteiramente casualizados, com variável resposta contínua e para a modelagem utilizou-se a distribuição normal, e para o último conjunto, o interesse era modelar a proporção, e utilizou-se a distribuição binomial. Um estudo de simulação foi conduzido, utilizando-se o método de Monte Carlo, e concluiu-se, que com as correções realizadas no resíduo de Wald, houve uma melhora signicativa em sua distribuição, sendo que a versão melhorada do resíduo tem distribuição que aproxima mais de uma distribuição normal padrão. / The theory of generalized linear models is very used in statistics, not only for modeling data normally distributed, but in the modeling of data whose distribution belongs to the exponential family of distributions. Some examples are binomial, gamma and inverse Gaussian distribution, among others. After tting a model in order to check the adequacy of tting, diagnostic techniques are used. The properties of residuals in generalized linear models are not well known, and asymptotic results are the only recourse. This work aims to study the asymptotic properties of Wald residual, and to obtain corrections to make the distribution of the modied residuals closer to standard normal. An application of the corrections for Wald residuals was done to ve datasets. In two datasets the response variables were counts, and to model, was used the Poisson distribution. Other two datasets are provided from a completely randomized design with a continuous response, and to model, was used the normal distribution, and, in the last dataset the interest was to model the proportion and the binomial distribution was used. A Monte Carlo simulation, was performed showing that the distribution of the corrected Wald residuals, is more close to the standard normal distribution.
97

Robust recognition of facial expressions on noise degraded facial images

Sheikh, Munaf January 2011 (has links)
Magister Scientiae - MSc / We investigate the use of noise degraded facial images in the application of facial expression recognition. In particular, we trained Gabor+SVMclassifiers to recognize facial expressions images with various types of noise. We applied Gaussian noise, Poisson noise, varying levels of salt and pepper noise, and speckle noise to noiseless facial images. Classifiers were trained with images without noise and then tested on the images with noise. Next, the classifiers were trained using images with noise, and then on tested both images that had noise, and images that were noiseless. Finally, classifiers were tested on images while increasing the levels of salt and pepper in the test set. Our results reflected distinct degradation of recognition accuracy. We also discovered that certain types of noise, particularly Gaussian and Poisson noise, boost recognition rates to levels greater than would be achieved by normal, noiseless images. We attribute this effect to the Gaussian envelope component of Gabor filters being sympathetic to Gaussian-like noise, which is similar in variance to that of the Gabor filters. Finally, using linear regression, we mapped a mathematical model to this degradation and used it to suggest how recognition rates would degrade further should more noise be added to the images. / South Africa
98

Modelos da teoria de resposta ao item assimétricos de grupos múltiplos para respostas politômicas nominais e ordinais sob um enfoque bayesiano / Skew item response theory models for multiple groups and for nominal and ordinal polytomous responses under a Bayesian framework

Ferreira, Eduardo Vargas, 1987- 24 August 2018 (has links)
Orientador: Caio Lucidius Naberezny Azevedo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-24T12:51:18Z (GMT). No. of bitstreams: 1 Ferreira_EduardoVargas_M.pdf: 8131052 bytes, checksum: f344cd1f11e8d818f3aac90f48396cbc (MD5) Previous issue date: 2014 / Resumo: No presente trabalho propõem-se novos modelos da Teoria de Resposta ao Item para respostas politômicas nominais e ordinais (graduais), via dados aumentados, para grupos múltiplos. Para a modelagem das distribuições dos traços latentes de cada grupo, considera-se normais assimétricas centradas. Tal abordagem, além de acomodar a característica de assimetria aos dados, ajuda a garantir a identificabilidade dos modelos estudados, a qual é tratada tanto sob a ótica frequentista quanto bayesiana. Com relação aos métodos de estimação, desenvolveu-se procedimentos bayesianos através de algoritmos de Monte Carlo via cadeias de Markov (MCMC), utilizando o algoritmo de Gibbs (DAGS), com a verossimilhança aumentada (dados aumentados) e Metropolis-Hastings, considerando a verossimilhança original. As implementações computacionais foram escritas em linguagem C++, integradas ao ambiente computacional, gráfico e estatístico R, viabilizando rotinas gratuitas, de código aberto e alta velocidade no processamento, essenciais à difusão de tais metodologias. Para a seleção de modelos, utilizou-se o critério de informação deviance (DIC), os valores esperados do critério de informação de Akaike (EAIC) e o critério de informação bayesiano (EBIC). Em relação à verificação da qualidade do ajuste de modelos, explorou-se a checagem preditiva a posteriori, que fornece meios concretos de se avaliar a qualidade do instrumento de medida (prova, questionário etc), qualidade do ajuste do modelo de um modo global, além de indícios de violações de suposições específicas. Estudos de simulação, considerando diversas situações de interesse prático, indicam que os modelos e métodos de estimação produzem resultados bastante satisfatórios, com superioridade dos modelos assimétricos com relação ao simétrico (o qual assume simetria das distribuições das variáveis latentes). A análise de um conjunto de dados reais, referente à primeira fase do vestibular da UNICAMP de 2013, ilustra o potencial da tríade: modelagem, métodos de estimação e ferramentas de diagnósticos, desenvolvida neste trabalho / Abstract: In this work, we propose new Item Response Theory models for nominal and ordinal (gradual) polytomous responses through augmented data schemes considering multiple groups. For the distribution of the latent traits of each group, we consider a skew-normal distribution under the centered parametrization. This approach will allow for accommodating a possible skewness of the latent trait distribution, but is also helpful to ensure the identifiability of the models, which is studied under frequentist and Bayesian paradigms. Concerning estimation methods, we developed Bayesian methods through Markov chain Monte Carlo (MCMC) algorithms by using the Gibbs algorithm (DAGS), with augmented likelihood (augmented data) and Metropolis-Hastings algorithms, considering the original likelihood. The computational environment was written in the C++ language and integrated with the R program (a statistical computational and graphical environment), allowing for free, open source and high-speed routines which, in turn, are essential to the dissemination of the developed methodologies. In terms of model selection, we considered the deviance information criterion (DIC), the expected Akaike information criterion (EAIC) and expected Bayesian information criterion (EBIC). Regarding model-fit assessment tools, we explore the posterior predictive model- checking which allows for assessing the quality of measurement, instruments (tests, questionnaires, and others), the model fit in a global sense, besides providing directions toward violations of specific assumptions. Simulation studies, considering different situations of practical interest, indicate that the models and estimation methods produced reasonable results, with outperformance of skew models when compared to symmetric ones (which assumes symmetry of the latent trait distribution). Analysis of a data set which corresponds to the first phase of the 2013 written examination of UNICAMP (State University of Campinas), illustrates the potential of the following triad: modelling; estimation methods; and diagnostic tools developed in this work. / Mestrado / Estatistica / Mestre em Estatística
99

Extensions of the normal distribution using the odd log-logistic family: theory and applications / Extensões do normal distribuição utilizando a família odd log-logística: teoria e aplicações

Altemir da Silva Braga 23 June 2017 (has links)
In this study we propose three new distributions and a study with longitudinal data. The first was the Odd log-logistic normal distribution: theory and applications in analysis of experiments, the second was Odd log-logistic t Student: theory and applications, the third was the Odd log-logistic skew normal: the new distribution skew-bimodal with applications in analysis of experiments and the fourth regression model with random effect of the Odd log-logistic skew normal distribution: an application in longitudinal data. Some have been demonstrated such as symmetry, quantile function, some expansions, ordinary incomplete moments, mean deviation and the moment generating function. The estimation of the model parameters were approached by the method of maximum likelihood. In applications were used regression models to data from a completely randomized design (CRD) or designs completely randomized in blocks (DBC). Thus, the models can be used in practical situations for as a completely randomized designs or completely randomized blocks designs, mainly, with evidence of asymmetry, kurtosis and bimodality. / A distribuição normal é uma das mais importantes na área de estatística. Porém, não é adequada para ajustar dados que apresentam características de assimetria ou de bimodalidade, uma vez que tal distribuição possui apenas os dois primeiros momentos, diferentes de zero, ou seja, a média e o desvio-padrão. Por isso, muitos estudos são realizados com a finalidade de criar novas famílias de distribuições que possam modelar ou a assimetria ou a curtose ou a bimodalidade dos dados. Neste sentido, é importante que estas novas distribuições tenham boas propriedades matemáticas e, também, a distribuição normal como um submodelo. Porém, ainda, são poucas as classes de distribuições que incluem a distribuição normal como um modelo encaixado. Dentre essas propostas destacam-se: a skew-normal, a beta-normal, a Kumarassuamy-normal e a gama-normal. Em 2013 foi proposta a nova família X de distribuições Odd log-logística-G com o objetivo de criar novas distribuições de probabildade. Assim, utilizando as distribuições normal e a skew-normal como função base foram propostas três novas distribuições e um quarto estudo com dados longitudinais. A primeira, foi a distribuição Odd log-logística normal: teoria e aplicações em dados de ensaios experimentais; a segunda foi a distribuição Odd log-logística t Student: teoria e aplicações; a terceira foi a distribuição Odd log-logística skew-bimodal com aplicações em dados de ensaios experimentais e o quarto estudo foi o modelo de regressão com efeito aleatório para a distribuição distribuição Odd log-logística skew-bimodal: uma aplicação em dados longitudinais. Estas distribuições apresentam boas propriedades tais como: assimetria, curtose e bimodalidade. Algumas delas foram demonstradas como: simetria, função quantílica, algumas expansões, os momentos incompletos ordinários, desvios médios e a função geradora de momentos. A flexibilidade das novas distrições foram comparada com os modelos: skew-normal, beta-normal, Kumarassuamy-normal e gama-normal. A estimativas dos parâmetros dos modelos foram obtidas pelo método da máxima verossimilhança. Nas aplicações foram utilizados modelos de regressão para dados provenientes de delineamentos inteiramente casualizados (DIC) ou delineamentos casualizados em blocos (DBC). Além disso, para os novos modelos, foram realizados estudos de simulação para verificar as propriedades assintóticas das estimativas de parâmetros. Para verificar a presença de valores extremos e a qualidade dos ajustes foram propostos os resíduos quantílicos e a análise de sensibilidade. Portanto, os novos modelos estão fundamentados em propriedades matemáticas, estudos de simulação computacional e com aplicações para dados de delineamentos experimentais. Podem ser utilizados em ensaios inteiramente casualizados ou em blocos casualizados, principalmente, com dados que apresentem evidências de assimetria, curtose e bimodalidade.
100

An Asymptotic Approach to Progressive Censoring

Hofmann, Glenn, Cramer, Erhard, Balakrishnan, N., Kunert, Gerd 10 December 2002 (has links)
Progressive Type-II censoring was introduced by Cohen (1963) and has since been the topic of much research. The question stands whether it is sensible to use this sampling plan by design, instead of regular Type-II right censoring. We introduce an asymptotic progressive censoring model, and find optimal censoring schemes for location-scale families. Our optimality criterion is the determinant of the 2x2 covariance matrix of the asymptotic best linear unbiased estimators. We present an explicit expression for this criterion, and conditions for its boundedness. By means of numerical optimization, we determine optimal censoring schemes for the extreme value, the Weibull and the normal distributions. In many situations, it is shown that these progressive schemes significantly improve upon regular Type-II right censoring.

Page generated in 0.1113 seconds