• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 121
  • 8
  • 7
  • Tagged with
  • 136
  • 136
  • 97
  • 92
  • 46
  • 37
  • 35
  • 29
  • 29
  • 28
  • 25
  • 25
  • 19
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Inferência em um modelo de regressão com resposta binária na presença de sobredispersão e erros de medição / Inference in a regression model with overdispersed binary response and measurement errors

Sandra Maria Tieppo 15 February 2007 (has links)
Modelos de regressão com resposta binária são utilizados na solução de problemas nas mais diversas áreas. Neste trabalho enfocamos dois problemas comuns em certos conjuntos de dados e que requerem técnicas apropriadas que forneçam inferências satisfatórias. Primeiro, em certas aplicações uma mesma unidade amostral é utilizada mais de uma vez, acarretando respostas positivamente correlacionadas, responsáveis por uma variância na variável resposta superior ao que comporta a distribuição binomial, fenômeno conhecido como sobredispersão. Por outro lado, também encontramos situações em que a variável explicativa contém erros de medição. É sabido que utilizar técnicas que desconsideram esses erros conduz a resultados inadequados (estimadores viesados e inconsistentes, por exemplo). Considerando um modelo com resposta binária, utilizaremos a distribuição beta-binomial para representar a sobredispersão. Os métodos de máxima verossimilhança, SIMEX, calibração da regressão e máxima pseudo-verossimilhança foram usados na estimação dos parâmetros do modelo, que são comparados através de um estudo de simulação. O estudo de simulação sugere que os métodos de máxima verossimilhança e calibração da regressão são melhores no sentido de correção do viés, especialmente para amostras de tamanho 50 e 100. Também estudaremos testes de hipóteses assintóticos (como razão de verossimilhanças, Wald e escore) a fim de testar hipóteses de interesse. Apresentaremos também um exemplo com dados reais / Regression models with binary response are used for solving problems in several areas. In this work we approach two common problems in some data sets and they need appropriate techniques to achieve satisfactory inference. First, in some applications, the same sample unity is utilized more than once, bringing positively correlated responses, which are responsible for the response variable variance be greater than an assumption binomial distribution, phenomenon known as overdispersion. On the other hand, also we find situations where the explanatory variable has measurement errors. It is known that the use of techniques which ignores these measurement errors brings inadequate results (e. g., biased and inconsistent estimators). Taking a model with binary response, we will use a beta-binomial distribution for modeling the overdispersion. The methods of maximum likelihood, SIMEX, regression calibration and maximum pseudo-likelihood were used in the estimation of the parameters, which are compared through a simulation study. The simulation studies suggest that the maximum likelihood and regression calibration methods are better for bias correcting, especially for larger sample size. Likelihood ratio, Wald and score statistics are used in order to test hypothesis of interest. We will illustrate the techniques with an application to a real data set
92

O modelo Burr XII geométrico: propriedades e aplicações / The model Burr XII Geometric: properties and applications

Beatriz Rezende Lanjoni 25 November 2013 (has links)
No presente trabalho são propostos dois modelos para dados censurados baseados na mistura da distribuição geométrica e na distribuição Burr XII considerando duas ativações latentes, máximo e mínimo. A distribuição Burr XII tem três parâmetros e é uma generalização da distribuição log-logística. Por sua vez a distribuição Burr XII Geométrica tipo I e tipo II tem quatro parâmetros e são generalizações da distribuição Burr XII relacionados as ativações latentes do mínimo e máximo respectivamente. Foram apresentadas algumas propriedades das duas novas distribuições tais como momentos, assimetria, curtose, função geradora de momentos e desvio médio. Além disso, foi intriduzido os modelos de regressão correspondentes, log Burr XII Geométrica tipo I e log Burr XII Geométrica tipo II. Adicionalmente foi desenvolvido um modelo de sobrevivência com fração de cura assumindo que o número de causas competitivas do evento de interesse segue a distribuição geométrica e o tempo do evento segue a distribuição Burr XII. Para todos os modelos desenvolvidos foi utilizado o método da máxima verossimilhança para estimar os parâmetros, que possibilita a construção de intervalos de confiança e testes de hipóteses. Por fim, são apresentadas três aplicações para ilustrar os modelos propostos. / In this paper are proposed two models for censored data based on the mixture of geometric distribution and Burr XII distribution considering two latent activations, maximum and minimum. The Burr XII distribution has three parameters and is a generalization of the log-logistic distribution. On the other hand Burr XII Geometric type I distribution and type II has four parameters and are a generalization of the Burr XII distribution related to minimum and maximum activations respectively. It were presented some properties of the news distributions such as moments, skewness, kurtosis, moment generating function and mean deviation. Furthermore, it was introduced two regression models, the log Burr XII Geometric type I and the log Burr XII Geometric type II. Additionally a new cure rate survival was formulated by assuming that the number of competing causes of the event of interest has the geometric distribution and the time to this event follows Burr XII distribution. For all models was developed the maximum likelihood method to estimate the parameters, which allows the construction of confidence intervals and hypothesis testing. Finally, three applications are presented to illustrate the proposed models.
93

Estimação de sinais caóticos com aplicação em sistemas de comunicação

Amaral, Marcos Almeida do 01 February 2011 (has links)
Made available in DSpace on 2016-03-15T19:37:36Z (GMT). No. of bitstreams: 1 Marcos Almeida do Amaral.pdf: 924821 bytes, checksum: 9688a401b13ea6bec24b0af1024abf72 (MD5) Previous issue date: 2011-02-01 / Communications have achieved great development on several fronts over the years. Among these, the communication using chaotic signals has been object of growing interest among researchers due to the characteristics of spread spectrum and hard detection. However these techniques still have inferior performance in comparison to conventional methods in non-ideal channels. To contribute do the solution of this problem, statistical estimation algorithms have been applied to the detection of the transmitted signal. The objective of this thesis is to study a communication system using chaotic carriers and reception with maximum likelihood (ML-CSK - Maximum Likelihood Chaos Shift Keying). For this, the application of Viterbi algorithm in chaotic modulation signals is investigated. As the previously proposed algorithms offer only good performance to signals generated by maps that present well-behaved probability density, a new technique was designed based on analysis of the map characteristics, obtained numerically through a training vector. The results of performed simulations assure the applicability and the good performance of the proposed innovations. / As comunicações têm alcançado grande desenvolvimento em várias frentes ao longo dos anos. Dentre estas, a comunicação utilizando sinais caóticos vêm sendo objeto de crescente interesse por parte dos pesquisadores devido às características de espalhamento espectral e difícil detecção. Entretanto estas técnicas ainda apresentam um desempenho inferior em comparação com os métodos convencionais em canais não ideais. Para contornar este problema, algoritmos estatísticos de estimação vêm sendo aplicados na detecção dos sinais transmitidos. O objetivo desta dissertação é estudar um sistema de comunicação utilizando portadoras caóticas e recepção com máxima verossimilhança (ML-CSK - Maximum Likelihood Chaos Shift Keying). Para isto, a aplicação do algoritmo de Viterbi em sistemas de modulação por sinais caóticos é investigada. A partir da constatação de que os algoritmos propostos anteriormente só apresentam bom desempenho para sinais gerados por mapas que apresentam densidade de probabilidade bem comportada, uma nova técnica foi concebida baseada no levantamento das características do mapa, obtidas numericamente através de um vetor de treinamento. Os resultados das simulações executadas atestam a aplicabilidade e o bom desempenho das inovações propostas.
94

Contribuições à caracterização estatística do canal de rádio móvel e estimação de parâmetros por máxima verossimilhança / Contributions to the statistical characterization of mobile radio channel and parameter estimation by maximum likelihood

Ribeiro, Antonio Marcelo Oliveira, 1970- 23 August 2018 (has links)
Orientador: Evandro Conforti / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T23:28:57Z (GMT). No. of bitstreams: 1 Ribeiro_AntonioMarceloOliveira_D.pdf: 6175407 bytes, checksum: 03c529ed2452256d1369e23e047687ec (MD5) Previous issue date: 2013 / Resumo: Os efeitos provocados pelo ambiente de propagação sobre o sinal transmitido, assim como as condições impostas pela mobilidade do receptor, afetam diretamente a qualidade de serviço em sistemas de comunicação sem fios. Portanto, é necessário compreender e analisar os efeitos de degradação que o canal terá sobre um dado sistema de comunicação de dados e, dessa forma, avaliar a necessidade de medidas para mitigar os eventuais efeitos prejudiciais do canal. Neste trabalho, apresenta-se uma caracterização estatística do canal de rádio móvel, a partir de medições em campo nas bandas de 1800, 2500 e 3500 MHz, através de uma técnica simples de aquisição da envoltória do sinal. Em particular, são calculadas, para a envoltória, funções de distribuição de probabilidade, taxas de cruzamentos, duração de desvanecimento e sua distribuição, funções de correlação espacial e em frequência, tempo de coerência e largura de banda de coerência. Realiza-se, igualmente, uma análise comparativa destes resultados com os seguintes modelos estatísticos: Rayleigh, Nakagami, Rice, Weibull, Hoyt (Nakagami-q) e ?-?. Além disso, é dada ênfase à estimação de parâmetros dos modelos de canal de rádio, através de dois métodos: momentos (MoM) e máxima verossimilhança (ML). Neste contexto, obtém-se expressões para a variância e o intervalo de confiança, assintóticos, de estimadores ML, baseadas na informação de Fisher que uma amostra aleatória contém a respeito do parâmetro a ser estimado. De forma geral, foi observado um bom ajuste entre as medidas em campo e correspondentes curvas teóricas, para estatísticas de primeira e segunda ordem da envoltória. As medições em campo deste trabalho mostraram que os estimadores ML agruparam mais as curvas teóricas, em torno da curva experimental, quando comparados aos estimadores MoM. Adicionalmente, a matriz de covariância dos estimadores ML para ? e ?, obtida a partir das medições em campo, mostrou que a variância do estimador de ? é, pelo menos, dez vezes maior que aquela do estimador de ?. Igualmente, valores medidos de correlação espacial apresentaram bom ajuste aos modelos teóricos, em termos de uma tendência geral de variação. Em particular, curvas de distribuição cumulativa do tempo de coerência, , para medidas em campo em 3500MHz, mostraram que é maior que 1,7 ms, para 90% do tempo, quando o receptor se move a 30 km/h. Por fim, medidas em campo da largura de banda de coerência, em 1800MHz, revelaram que um valor de ?f < 60 kHz irá garantir um nível de correlação da envoltória maior que 0,9, para 90% do tempo / Abstract: The propagation environment effects on the transmitted signal as well as the conditions imposed by the receiver mobility directly affect the quality of service (QoS) in wireless communication systems. Therefore, it is necessary to understand and analyze the degradation effects inflicted by the channel on a given data communication system, in order to evaluate the measures to mitigate these deleterious effects. In this thesis, we present a statistical characterization of the mobile radio channel based on field measurements performed over the 1800, 2500, and 3500 MHz bands, using a simple technique for acquiring the signal envelope. In particular, envelope statistics for probability distribution functions were calculated, as well as the crossing rates, duration of fading and its distribution, spatial and frequency correlation functions, coherence time, and coherence bandwidth. A comparative analysis of these results was also carried out against the following statistical models: Rayleigh, Nakagami, Rice, Weibull, Hoyt (Nakagami-q), and ?-?. Also, emphasis is given to the parameter estimation of radio channel models using two methods: moments (MoM) and maximum likelihood (ML). In this context, expressions for the asymptotic variance and confidence interval of ML estimators were obtained, based on the Fisher information a random sample contains over the parameter to be estimated. In general, there was a good fit between the field measurements and corresponding theoretical curves for envelope statistics of first and second order. Field measurements of this work have shown that ML estimators grouped more the theoretical curves around the experimental one, when compared to MoM estimators. Additionally, the covariance matrix of ML estimators for ? and ?, obtained from field measurements, showed that the variance of ? estimator is at least ten times greater than the one of ? estimator. Moreover, measured values of spatial correlation showed a good .t to the theoretical models, in terms of a general tendency of variation. Particularly, cumulative distribution curves of the coherence time , for field measurements at 3500MHz, showed that is greater than 1,7 ms for 90% of time when the receiver is moving at 30 km/h. Finally, 1800- MHz field measurements of coherence bandwidth revealed that a value of ?f < 60 kHz will ensure a level of envelope correlation greater than 0.9 for 90% of time / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
95

MÉTODO DE MULTILATERAÇÃO PARA ALGORITMOS DE LOCALIZAÇÃO EM REDES DE SENSORES SEM FIO / MULTILATERATION METHOD FOR WIRELESS SENSOR NETWORKS LOCATION ALGORITHMS

Müller, Crístian 18 March 2014 (has links)
Fundação de Amparo a Pesquisa no Estado do Rio Grande do Sul / The wireless sensor networks have made great progress in the last decade and are increasingly present in several fields like security and monitoring of persons, animals or items, medicine, military area and many others that, due to technological developments, have become viable. These networks are formed by sensor nodes that have extremely limited resources, such as processing and data storage capacity, data transmission rate and energy available for operation. Thus, in networks with hundreds or even thousands of nodes, it is unfeasible to locate each one of them with global positioning devices, because those will considerably increase the cost and power consumption. As localization knowledge by the nodes is required in applications such as tracking, monitoring and environmental data collection, location algorithms were created to cheapen and/or improve this task. Thus, this master thesis presents the development of a low complexity iterative multilateration method, since most location algorithms uses some kind of multilateration. To prove this new method efficiency, a simple simulator based on the Matlab software was created in order to evaluate, in terms of location error, accuracy and robustness in a scenario with random arrangement of the reference nodes, log-normal propagation model with shadowing and received signal strength distance estimation. Under these conditions, the presented multilateration method presents inconsiderable loss of accuracy in comparison to the maximum likelihood method and also a low number of iterations is required. In this way was possible to increase the location algorithms accuracy without this entailing an increase in complexity and power consumption. / As redes de sensores sem fio tiveram um grande progresso na última década e estão cada vez mais presentes em diversos campos como a segurança e monitoramento de pessoas, animais ou itens, medicina, área militar entre muitas outras que, devido à evolução tecnológica, tornaram-se viáveis. As principais características dos nós sensores, denominados nodos, constituintes destas redes são as de possuírem recursos extremamente limitados, sendo estes a capacidade de processamento e de armazenamento de dados, taxa de transmissão de dados e energia disponível para operação. Deste modo, em redes com centenas ou até milhares de nodos, seria inviável que todos estes possuíssem dispositivos de posicionamento global para se localizarem, pois estes acarretariam num considerável aumento de custo e consumo de potência. Como o conhecimento de sua localização, por parte dos nodos, é necessário em aplicações como rastreamento, monitoramento e coleta de dados ambientais, foram criados algoritmos de localização com a função de viabilizar e/ou tornar mais precisa esta tarefa. Assim, neste trabalho é apresentado o desenvolvimento de um método de multilateração iterativo de baixa complexidade para o uso em algoritmos de localização. Para provar que este novo método é eficiente, foi criado um simulador simples baseado no software Matlab com o intuito de avaliar, em termos de erro na localização, a precisão e robustez deste em cenários com disposição aleatória dos nodos de referência, modelo de propagação log-normal com sombreamento e estimação das distâncias através da potência do sinal recebido. Nestas condições, o método de multilateração desenvolvido apresentou uma perda de precisão desconsiderável em relação ao de máxima verossimilhança e com um baixo número de iterações. Desta forma foi possível aumentar a precisão dos algoritmos de localização sem que isto acarrete num aumento de complexidade e de consumo de potência.
96

"Métodos de estimação na teoria de resposta ao item" / Estimation methods in item response theory

Caio Lucidius Naberezny Azevedo 27 February 2003 (has links)
Neste trabalho apresentamos os mais importantes processos de estimação em algumas classes de modelos de resposta ao item (Dicotômicos e Policotômicos). Discutimos algumas propriedades desses métodos. Com o objetivo de comparar o desempenho dos métodos conduzimos simulações apropriadas. / In this work we show the most important estimation methods for some item response models (both dichotomous and polichotomous). We discuss some proprieties of these methods. To compare the characteristic of these methods we conducted appropriate simulations.
97

Estimativa do valor da taxa de penetrância em doenças autossômicas dominantes: estudo teórico de modelos e desenvolvimento de um programa computacional / Penetrance rate estimation for autosomal dominant diseases: study of models and development of a computer program

Andréa Roselí Vançan Russo Horimoto 17 September 2009 (has links)
O objetivo principal do trabalho foi o desenvolvimento de um programa computacional, em linguagem Microsoft Visual Basic 6.0 (versão executável), para estimativa da taxa de penetrância a partir da análise de genealogias com casos de doenças com herança autossômica dominante. Embora muitos dos algoritmos empregados no programa tenham se baseado em idéias já publicadas na literatura (em sua maioria por pesquisadores e pós-graduandos do Laboratório de Genética Humana do Instituto de Biociências da Universidade de São Paulo), desenvolvemos alguns métodos inéditos para lidar com situações encontradas com certa frequência nos heredogramas publicados na literatura, como: a) ausência de informações sobre o fenótipo do indivíduo gerador da genealogia; b) agrupamento de árvores de indivíduos normais sem a descrição da distribuição de filhos entre os progenitores; c) análise de estruturas da genealogia contendo uniões consanguíneas, utilizando um método alternativo ao descrito na literatura; d) determinação de soluções gerais para as funções de verossimilhança de árvores de indivíduos normais com ramificação regular e para as probabilidades de heterozigose de qualquer indivíduo pertencente a essas árvores. Além da versão executável, o programa, denominado PenCalc, é apresentado também numa versão para Internet (PenCalc Web), a qual fornece adicionalmente as probabilidades de heterozigose e o cálculo de afecção na prole de todos os indivíduos da genealogia. Essa versão pode ser acessada livre e gratuitamente no endereço http://www.ib.usp.br/~otto/pencalcweb. Desenvolvemos também um modelo com taxa de penetrância variável dependente da geração, uma vez que a inspeção de famílias com doenças autossômicas dominantes, como é o caso da síndrome da ectrodactilia associada à hemimelia tibial (EHT), sugere a existência de um fenômeno similar à antecipação, em relação à taxa de penetrância. Os modelos com taxa de penetrância constante e variável, e os métodos desenvolvidos neste trabalho foram aplicados a 21 heredogramas de famílias com afetados pela EHT e ao conjunto das informações de todas essas genealogias (meta-análise), obtendo-se em todos os casos estimativas da taxa de penetrância. / The main objective of this dissertation was the development of a computer program, in Microsoft® Visual Basic® 6.0, for estimating the penetrance rate of autosomal dominant diseases by means of the information contained on genealogies. Some of the algorithms we used in the program were based on ideas already published in the literature by researchers and (post-) graduate students of the Laboratory of Human Genetics, Department of Genetics and Evolutionary Biology, Institute of Biosciences, University of São Paulo. We developed several other methods to deal with particular structures found frequently in the genealogies published in the literature, such as: a) the absence of information on the phenotype of the individual generating of the genealogy; b) the grouping of trees of normal individuals without the separate description of the offspring number per individual; c) the analysis of structures containing consanguineous unions; d) the determination of general solutions in simple analytic form for the likelihood functions of trees of normal individuals with regular branching and for the heterozygosis probabilities of any individual belonging to these trees. In addition to the executable version of the program summarized above, we also prepared, in collaboration with the dissertation supervisor and the undergraduate student Marcio T. Onodera (main author of this particular version), another program, represented by a web version (PenCalc Web). It enables the calculation of heterozygosis probabilities and the offspring risk for all individuals of the genealogy, two details we did not include in the present version of our program. The program PenCalc Web can be accessed freely at the home-page address http://www.ib.usp.br/~otto/pencalcweb. Another important contribution of this dissertation was the development of a model of estimation with generationdependent penetrance rate, as suggested by the inspection of families with some autosomal dominant diseases, such as the ectrodactyly-tibial hemimelia syndrome (ETH), a condition which exhibits a phenomenon similar to anticipation in relation to the penetrance rate. The models with constant and variable penetrance rates, as well as practically all the methods developed in this dissertation, were applied to 21 individual genealogies from the literature with cases of ETH and to the set of all these genealogies (meta-analysis). The corresponding results of all these analysis are comprehensively presented.
98

Redes neurais artificiais auto-organizáveis na classificação não-supervisionada de imagens multiespectrais de sensoriamento remoto / Self-organizing artificial neural networks in the unsupervised classification of multispectral remote sensing imagery

Christopher Silva de Pádua 14 October 2016 (has links)
O uso de imagens provenientes de sensores remotos, tal como sistemas acoplados em aviões e satélites, é cada vez mais frequente, uma vez que permite o monitoramento continuo e periódico ao longo do tempo por meio de diversas observações de uma mesma região, por vezes ampla ou de difícil acesso. Essa ferramenta tem se mostrado importante e significativa em aplicações como o mapeamento de solo e fronteiras; acompanhamento de áreas de desmatamento, queimadas e de produção agrícola. Para gerar resultados interpretáveis ao usuário final, essas imagens devem ser processadas. Atualmente, o método de classificação por máxima verossimilhança é o mais empregado para classificação de imagens multiespectrais de sensores remotos, entretanto, por se tratar de uma técnica supervisionada, seus resultados dependem extensivamente da qualidade do conjunto de treinamento, utilizado para definir os parâmetros do método. A seleção de um bom conjunto de treinamento é um processo custoso e inviabiliza a automação da classificação para diversas imagens. O método de classificação por máxima verossimilhança é também paramétrico e portanto exitem algumas suposições quanto a distribuição dos dados que devem ser atendidas, caso contrário a aplicação do método pode gerar resultados ruins. Tendo em vista essas desvantagens do método da máxima verossimilhança, este trabalho propõe um novo método para a classificação de imagens multiespectrais provenientes de sensores remotos de forma que o procedimento seja autônomo, veloz e preciso, minimizando dessa forma os possíveis erros humanos inseridos em etapas intermediárias do processo, tal como a definição de conjuntos de treinamento. O método aqui proposto pertence ao conjunto das redes neurais artificiais (RNAs) e é denominado growing neural gas (GNG). Este método baseia-se no aprendizado não supervisionado de padrões \"naturais\" dentro de um conjunto de dados por meio da criação e adaptação de uma rede mínima de neurônios. Os resultados gerados a partir da classificação pela RNA foram comparados com os métodos mais utilizados na literatura atual, sendo eles o método da máxima verossimilhança e o método k-means. A partir da biblioteca espectral ASTER, mantida e criada parcialmente pela NASA, foram realizadas várias repetições do experimento, que consiste em classificar os dados de acordo com as diferentes classes existentes, e para cada uma destas repetições calculou-se uma medida de acurácia, denominada índice kappa, além do tempo de execução de cada método, de forma que suas médias foram comparadas via intervalo de confiança gerados por bootstrap não paramétrico. Também investigou-se como a análise de componentes principais (ACP), técnica utilizada para reduzir a dimensão dos dados e consequentemente o custo computacional, pode influenciar no desempenho dos métodos, tanto em sua qualidade de classificação quanto em relação ao tempo de execução. Os resultados mostram que o método proposto é superior nos dois aspectos estudados, acurácia e tempo de execução, para a maioria dos fatores aplicados. Mostra-se ainda um exemplo de aplicação prática em que uma imagem multiespectral de satélite não satisfaz as pré-suposições estabelecidas para o uso do método da máxima verossimilhança e verifica-se a diferença entre os métodos com relação a qualidade final da imagem classificada. / The use of images from remote sensors, such as coupled systems in airplanes and satellites, are increasingly being used because they allow continuous and periodic surveillance over time through several observations of some particular area, sometimes large or difficult to access. This sort of image has shown an important and meaningful participation in applications such as soil and borders mapping; surveillance of deforestation, forest fires and agricultural production areas. To generate interpretable results to the end user, these images must be processed. Currently, the maximum likelihood classification method is the most used for multispectral image classification of remote sensing, however, because it is a supervised technique, the results depend extensively on the quality of the training set, used to define the parameters of the method. Selecting a good training set is a costly process and prevents the automation of classification for different images. The maximum likelihood classification method is also parametric, and therefore, some assumptions about the distribution of the data must be met, otherwise the application of the method can generate bad results. In view of these disadvantages of the maximum likelihood method, this dissertation proposes a new, autonomous, fast and accurate method for multispectral remote sensing imagery classification thereby minimizing the possible human errors inserted at intermediate stages of the process, such as the definition of training sets. The method proposed here belongs to the set of artificial neural networks (ANN) and is called growing neural gas (GNG). This method is based on unsupervised learning of \"natural\" patterns in a dataset through the creation and adaptation of a minimum network of neurons. The results generated from the classification by ANN were compared with the most commonly used methods in the literature: the maximum likelihood method and the k-means method. From the spectral library Aster, maintained and made in part by NASA, several replications of the experiment were made, which is to classify the data according to different preestablished classes, and a measure of accuracy called kappa index was calculated for each of the replicates, in addition to the execution time of each method, so that their means were compared via confidence interval generated by nonparametric bootstrap. It was additionally investigated how principal component analysis (PCA), technique which reduces dimension of data and consequently the computational cost, can influence the performance of methods, both in its quality rating and runtime. The results show that the proposed method is superior in both aspects studied, accuracy and runtime, for the majority of applied factors. Furthermore, it is shown an example of a practical application in which a multispectral satellite image does not necessarily meet the established assumptions for using the maximum likelihood method, and there is a difference between the methods, regarding to its final classified image quality.
99

Bayesian and classical inference for extensions of Geometric Exponential distribution with applications in survival analysis under the presence of the data covariated and randomly censored /

Gianfelice, Paulo Roberto de Lima. January 2020 (has links)
Orientador: Fernando Antonio Moala / Abstract: This work presents a study of probabilistic modeling, with applications to survival analysis, based on a probabilistic model called Exponential Geometric (EG), which o ers great exibility for the statistical estimation of its parameters based on samples of life time data complete and censored. In this study, the concepts of estimators and lifetime data are explored under random censorship in two cases of extensions of the EG model: the Extended Geometric Exponential (EEG) and the Generalized Extreme Geometric Exponential (GE2). The work still considers, exclusively for the EEG model, the approach of the presence of covariates indexed in the rate parameter as a second source of variation to add even more exibility to the model, as well as, exclusively for the GE2 model, a analysis of the convergence, hitherto ignored, it is proposed for its moments. The statistical inference approach is performed for these extensions in order to expose (in the classical context) their maximum likelihood estimators and asymptotic con dence intervals, and (in the bayesian context) their a priori and a posteriori distributions, both cases to estimate their parameters under random censorship, and covariates in the case of EEG. In this work, bayesian estimators are developed with the assumptions that the prioris are vague, follow a Gamma distribution and are independent between the unknown parameters. The results of this work are regarded from a detailed study of statistical simulation applied to... (Complete abstract click electronic access below) / Resumo: Este trabalho apresenta um estudo de modelagem probabilística, com aplicações à análise de sobrevivência, fundamentado em um modelo probabilístico denominado Exponencial Geométrico (EG), que oferece uma grande exibilidade para a estimação estatística de seus parâmetros com base em amostras de dados de tempo de vida completos e censurados. Neste estudo são explorados os conceitos de estimadores e dados de tempo de vida sob censuras aleatórias em dois casos de extensões do modelo EG: o Exponencial Geom étrico Estendido (EEG) e o Exponencial Geométrico Extremo Generalizado (GE2). O trabalho ainda considera, exclusivamente para o modelo EEG, a abordagem de presença de covariáveis indexadas no parâmetro de taxa como uma segunda fonte de variação para acrescentar ainda mais exibilidade para o modelo, bem como, exclusivamente para o modelo GE2, uma análise de convergência até então ignorada, é proposta para seus momentos. A abordagem da inferência estatística é realizada para essas extensões no intuito de expor (no contexto clássico) seus estimadores de máxima verossimilhança e intervalos de con ança assintóticos, e (no contexto bayesiano) suas distribuições à priori e posteriori, ambos os casos para estimar seus parâmetros sob as censuras aleatórias, e covariáveis no caso do EEG. Neste trabalho os estimadores bayesianos são desenvolvidos com os pressupostos de que as prioris são vagas, seguem uma distribuição Gama e são independentes entre os parâmetros desconhecidos. Os resultad... (Resumo completo, clicar acesso eletrônico abaixo) / Mestre
100

Modelos de regressão beta inflacionados truncados / The truncated inflated beta regression

Pereira, Gustavo Henrique de Araujo 24 May 2012 (has links)
Os modelos de regressão beta e beta inflacionados conseguem ajustar adequadamente grande parte das variáveis do tipo proporção. No entanto, esses modelos não são úteis quando a variável resposta não pode assumir valores no intervalo (0,c) e assume o valor c com probabilidade positiva. Variáveis relacionadas a algum tipo de pagamento limitado entre dois valores, quando estudadas em relação ao seu valor máximo, possuem essas características. Para ajustar essas variáveis, introduzimos a distribuição beta inflacionada truncada (BIZUT), que é uma mistura de uma distribuição beta com suporte no intervalo (c,1) e uma distribuição trinomial que assume os valores zero, um e c. Propomos ainda um modelo de regressão para as situações em que a variável resposta tem distribuição BIZUT. Admitimos que todos os parâmetros da distribuição podem variar em função de variáveis preditoras. Além disso, o modelo permite que o parâmetro conhecido c varie entre as unidades populacionais. Para esse modelo são desenvolvidos diversos aspectos inferenciais, são obtidos resultados para as situações em que c é variável e são conduzidos estudos de simulação de Monte Carlo. Além disso, discutimos análise de resíduos, desenvolvemos análise de influência local e realizamos uma aplicação a dados reais de cartão de crédito. / The beta regression model or the inflated beta regression model may be a reasonable choice to fit a proportion in most situations. However, they do not fit well variables that do not assume values in the open interval (0,c), 0 < c < 1 and assume the c value with positive probability. Variables related to a kind of double bounded payment amount when studied as a proportion of the maximum payment amount have this feature. For these variables, we introduce the truncated inflated beta distribution (TBEINF). This proposed distribution is a mixture of the beta distribution bounded in the open interval (c,1) and a trinomial distribution that assumes the values zero, one and c. This work also proposes a regression model where the response variable is TBEINF distributed. The model allows all the unknown parameters of the conditional distribution of the response variable to be modeled as functions of explanatory variables. Moreover, the model allows nonconstant known parameter c across population units. For this model, some inferential aspects are developed, some results when c is not constant are obtained and Monte Carlo simulation studies are performed. In addition, residual and local influence analysis are discussed and an application to credit card data is presented.

Page generated in 0.0875 seconds