151 |
As distribuições Kumaraswamy-log-logística e Kumaraswamy-logística / Distributions Kumaraswamy-log-logistic and Kumaraswamy-logisticSantana, Tiago Viana Flor de 18 October 2010 (has links)
Neste trabalho apresenta-se duas novas distribuições de probabilidade obtidas de dois métodos de generalização da distribuição log-logística com dois parâmetros (LL(?,?)). O primeiro método descrito em Marshall e Olkin (1997) transforma a nova distribuição, agora com três parâmetros e denominada distribuição log-logística modificada (LLM (v,?,?)), mais flexível porém, não muda a forma geral da função de taxa de falha e o novo parâmetro v, não influência no cálculo da assimetria e curtose. O segundo método utiliza a classe de distribuições Kumaraswamy proposta por Cordeiro e Castro (2010), para construir a nova distribuição de probabilidade, denominada distribuição Kumaraswamy log-logística (Kw-LL(a,b,?,?)), a qual considera dois novos parâmetros a e b obtendo ganho nas formas da função de taxa de falha, que agora além de modelar dados onde a função de taxa de falha tem forma decrescente e unimodal, modela forma crescente e forma de U. Também foi proposto as distribuições logística modificada (LM (v,µ,?)) e Kumaraswamy logística (Kw-L (a,b, µ,?)$) para a variável Y=log(T), em que T ~ LLM (v,?,?) no caso da distribuição logística modificada e T ~ Kw-LL(a,b,?,?) no caso da distribuição Kw-L. Com reparametrização ? = exp(µ) e ? = 1/?. Da mesma forma que a distribuição LLM, não há ganho quanto a forma da função de taxa de falha da distribuição logística modificada e o parâmetro v não contribuiu para o cálculo da assimetria e curtose desta distribuição. O modelo de regressão locação e escala foi proposto para ambas as distribuições. Por fim, utilizou-se dois conjuntos de dados, para exemplificar o ganho das novas distribuições Kw-LL e Kw-L em relação as distribuições log-logística e logística. O primeiro conjunto refere-se a dados de tempo até a soro-reversão de 143 crianças expostas ao HIV por via vertical, nascidas no Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto no período de 1995 a 2001, onde as mães não foram tratadas. O segundo conjunto de dados refere-se ao tempo até a falha de um tipo de isolante elétrico fluido submetivo a sete níveis de voltagem constante. / In this work, are presented two new probability distributions, obtained from two generalization methods of the log-logistic distribution, with two parameters (LL (?, ?)). The first method described in Marshall e Olkin (1997) turns the new distribution, now with three parameters, called modified log-logistic distribution (LLM(v, ?, ?)). This distribution is more flexible, but, does not change the general shape of the failure rate function, as well as the new parameter v, does not influence the calculus of skewness and kurtosis. The second method, uses the class of distributions Kumaraswamy proposed by Cordeiro and Castro (2010). To build the new probability distribution, called Kumaraswamy log-logistic distribution (Kw-LL(a,b,?,?)), which considers two new parameters a and b gaining in the forms of failure rate function, that now, even modeling data where the failure rate function has decreasing and unimodal shape, models the increasing form and the U-shaped. Also, were proposed the distributions modified logistic (LM (v,µ,?)) and Kumaraswamy logistics (Kw-L (a,b,µ,?)) for the variable Y=log(T), where T ~ LLM(v,?,?) in the case of the modified logistic distribution and T ~ Kw-LL (a,b,?,?) in the case of Kw-L distribution, with reparametrization ? =exp(µ) and ? = 1/?. As in the distribution LLM, there is no gain for the shape of the failure rate function of modified logistic distribution and the parameter v does not contribute to the calculation of skewness and kurtosis of the distribution. The location and scale regression models were proposed for both distributions. As illustration, were used two datasets to exemplify the gain of the new distributions Kw-LL and Kw-L compared with the log-logistic and logistic distributions. The first dataset refers to the data of time until soro-reversion of 143 children exposed to HIV through vertical, born in the Hospital of the Medical School of Ribeirão Preto during the period 1995 to 2001, where mothers were not treated. The second dataset refers to the time until the failure of a type of electrical insulating fluid subjected to seven constant voltage levels
|
152 |
A distribuição generalizada de Pareto e mistura de distribuições de Gumbel no estudo da vazão e da velocidade máxima do vento em Piracicaba, SP / The generalized Pareto distribution and Gumbel mixture to study flow and maximum wind speed in Piracicaba, SPSilva, Renato Rodrigues 10 October 2008 (has links)
A teoria dos valores extremos é um tópico da probabilidade que descreve a distribuição assintótica das estatísticas de ordem, tais como máximos ou mínimos, de uma seqüência de variáveis aleatórias que seguem uma função de distribuição F normalmente desconhecida. Descreve, ainda, a distribuição assintótica dos excessos acima de um valor limiar de um ou mais termos dessa seqüência. Dessa forma, as metodologias padrões utilizada neste contexto consistem no ajuste da distribuição generalizada dos valores extremos a uma série de máximos anuais ou no ajuste da distribuição generalizada de Pareto a uma série de dados compostas somente de observações excedentes de um valor limiar. No entanto, segundo Coles et al. (2003), há uma crescente insatisfação com o desempenho destes modelos padrões para predição de eventos extremos causada, possivelmente, por pressuposições não atendidas como a de independência das observações ou pelo fato de que os mesmos não sejam recomendados para serem utilizados em algumas situações específicas como por exemplo e quando observações de máximos anuais compostas por duas ou mais populações independentes de eventos extremos sendo que a primeira descreve eventos menos freqüentes e de maior magnitude e a segunda descreve eventos mais freqüentes e de menor magnitude. Então, os dois artigos que compõem este trabalho tem como objetivo apresentar alternativas de análise de valores extremos para estas situações em que o ajuste dos modelos padrões não são adequados. No primeiro, foram ajustadas as distribuições generalizada de Pareto e exponencial, caso particular da GP, aos dados de vazão média diária do Posto de Artemis, Piracicaba, SP, Brasil, conjuntamente com a técnica do desagrupamento, (declustering), e comparadas as estimativas dos níveis de retorno para períodos de 5, 10, 50 e 100 anos. Conclui-se que as estimativas intervalares dos níveis de retorno obtidas por meio do ajuste da distribuição exponencial são mais precisas do que as obtidas com o ajuste da distribuição generalizada de Pareto. No segundo artigo, por sua vez, foi apresentada uma metodologia para o ajuste da distribuição de Gumbel e de misturas de duas distribuições de Gumbel aos dados de velocidades de ventos mensais de Piracicaba, SP. Selecionou-se a distribuição que melhor ajustou-se aos dados por meio de testes de hipóteses bootstrap paramétrico e critérios de seleção AIC e BIC. E concluiu-se que a mistura de duas distribuições de Gumbel é a distribuição que melhor se ajustou-se aos dados de velocidades máxima de ventos dos meses de abril e maio, enquanto que o ajuste da distribuição de Gumbel foi o melhor para os meses de agosto e setembro. / The extreme value theory is a probability topics that describes the asymtoptic distribution of order statistics such as maximum or minimum of random variables sequence that follow a distribution function F normaly unknown. Describes still, the excess asymtoptic distribution over threshold of this sequence. So, the standard methodologies of extremes values analysis are the fitting of generalized extreme value distribution to yearly maximum series or the fitting of generalized Pareto distribution to partial duration series. However, according to Coles et al. (2003), there is a growing dissatisfaction with the use this standard models for the prediction of extremes events and one of possible causes this fact may be a false assumptions about a sequence of observed data as a independence assumptions or because the standards models must not used in some specific situations like for example when maximum sample arise from two or more independents populations, where the first population describes more frequents and low intense events and the second population describes less frequents and more intense events. In this way, the two articles this work has a objective show alternatives about extreme values analysis for this situations that the standards models doesn´t recommended. In the first article, the generalized distribution Pareto and exponencial distribution, particular case of GP, together with to declustering methods was applied to mean daily flow of the Piracicaba river, Artemis station, Piracicaba, SP, and the estimates the return levels of 5, 10, 50 and 100 years were compared. We conclude that the interval estimates of the 50 and 100 year return levels obtained using the fitting the exponencial distribution are more precise than those obtained using the generalized Pareto distribution. In the second article, we propose the fit of Gumbel distribution and the Gumbel mixture to data maximum speed wind in Piracicaba, SP. We select the best model using bootstrap test of hypotheses and the AIC and BIC selection criteria We conclude that the mixture Gumbel is the best model to analyze the maximum wind speed data for months of april e may and otherside the fit of Gumbel distributions was the best fit to months of august e september.
|
153 |
Abordagem computacional para a questão do acento no português brasileiro / Computational approach for the matter of stress in Brazilian PortugueseGuide, Bruno Ferrari 31 August 2016 (has links)
O objetivo central do projeto foi investigar a questão do acento no português brasileiro por meio do uso de ferramentas computacionais, a fim de encontrar possíveis relações entre traços segmentais, prosódicos ou morfológicos com o acento. Tal análise foi realizada a partir do estudo crítico das principais soluções propostas para a questão advindas da Fonologia Teórica. Isso foi considerado o primeiro passo para desenvolver uma abordagem que traga inovação para a área. A discussão teórica foi concluída com a implementação de algoritmos que representam modelizações das propostas para o tratamento da questão do acento. Estas foram, posteriormente, testadas em corpora relevantes do português com o objetivo de analisar tanto os casos considerados como padrão pelas propostas, quanto aqueles que são considerados exceções ao comportamento do idioma. Simultaneamente, foi desenvolvido um corpus anotado de palavras acentuadas do português brasileiro, a partir do qual foram implementados os dois grupos de modelos de natureza probabilística que formam o quadro de abordagens desenhado pelo projeto. O primeiro grupo se baseia na noção de N-gramas, em que a atribuição de acento a uma palavra ocorre a partir da probabilidade das cadeias de tamanho \" que a compõem, configurando-se, assim, um modelo que enxerga padrões simples de coocorrência e que é computacionalmente eficiente. O segundo grupo de modelos foi chamado de classificador bayesiano ingênuo, que é uma abordagem probabilística mais sofisticada e exigente em termos de corpus e que leva em consideração um vetor de traços a serem definidos para, no caso, atribuir o acento de uma palavra. Esses traços englobaram tanto características morfológicas, quanto prosódicas e segmentais das palavras. / The main goal of this project was to provide insight into the behavior of stress patterns of Brazilian Portuguese using computational tools in order to find eventual relationships between segmental, prosodic or morphologic features and word stress. Such analysis was based on a critical reading of some of the main proposals from theoretical phonology regarding the matter. This was considered the first step towards an innovative approach for this field of research. Such discussion was concluded by implementing algorithms representing models of the theoretical proposals for treating the behavior of stress. Afterward, those solutions were tested in relevant corpora of Portuguese aiming to analyze both the words which fell inside what was considered standard and the words that should be considered exceptions to the typical behavior in the language. Simultaneously, a noted corpus of Brazilian Portuguese words was compiled, from which were implemented both groups of models that have probabilistic nature that completes the frame of approaches drawn from this project. The first group is composed of models based on the notion of N-grams, in which the attribution of stress to a word happens based on the probability attributed to the `n\' sized chains that compose this word, which results in a model that is sensitive to patterns of co-occurrence and computationally efficient. The second group of models is called Naive Bayes Classifier, which is a more sophisticated probabilistic approach that is more corpus demanding, this approach takes into account a vector of features that was defined in order to attribute stress to a word. Those features were morphological, prosodic and segmental characteristics of the words.
|
154 |
Problemas contra-intuitivos como motivadores para o estudo de conceitos de probabilidade no ensino médio / Counterintuitive problems as a motivating study of probabilistic concepts in high school math classesDaltoso Júnior, Sérgio Luiz 01 April 2016 (has links)
Probabilidade é uma das áreas onde mais se encontram aplicações diárias da Matemática em nossas vidas. Muitas vezes, porém, o ensino de probabilidade no Ensino Médio é desestimulante para os alunos. Neste trabalho, estudaram-se problemas cujas respostas podem ser contrárias à intuição para que fosse possível sugerir sua adoção por professores de Matemática do Ensino Médio como forma de motivar o estudo da Probabilidade em seus alunos. Para compreender esses problemas, realizou-se uma revisão teórica sobre a Teoria de Probabilidade, através da qual foi elaborado um texto que aborda tais conceitos em uma linguagem acessível a professores de Matemática do Ensino Médio. Ao final, são disponibilizadas algumas sugestões e orientações para a utilização desses problemas em sala de aula, que podem ser adaptadas ao cotidiano e às turmas de cada professor de Matemática. Espera-se, dessa maneira, que este trabalho sirva como contribuição à prática desses docentes em sala de aula. / Probability is one of the areas where we can most find daily applications of Mathematics in our lives. Many times, however, Probability High School classes are not stimulating for the students. In this text, we have studied some probability problems whose answers are not intuitive. It make possible to suggest their adoption by High Schools Math teachers as a way to motivate their students to study Probability. To understand these problems, we have made a theoretical review in Probability Theory. With this, we write a text who talks about Probability concepts in an accessible language for High Schools Math teachers. At last, we offer some suggestions and guidelines to the use of these problems in classroom, which can be adapted to the daily life of each Math teacher classes. It is expected, therefore, that this text could be a contribution for Math teachers in their classrooms.
|
155 |
Abordagem computacional para a questão do acento no português brasileiro / Computational approach for the matter of stress in Brazilian PortugueseBruno Ferrari Guide 31 August 2016 (has links)
O objetivo central do projeto foi investigar a questão do acento no português brasileiro por meio do uso de ferramentas computacionais, a fim de encontrar possíveis relações entre traços segmentais, prosódicos ou morfológicos com o acento. Tal análise foi realizada a partir do estudo crítico das principais soluções propostas para a questão advindas da Fonologia Teórica. Isso foi considerado o primeiro passo para desenvolver uma abordagem que traga inovação para a área. A discussão teórica foi concluída com a implementação de algoritmos que representam modelizações das propostas para o tratamento da questão do acento. Estas foram, posteriormente, testadas em corpora relevantes do português com o objetivo de analisar tanto os casos considerados como padrão pelas propostas, quanto aqueles que são considerados exceções ao comportamento do idioma. Simultaneamente, foi desenvolvido um corpus anotado de palavras acentuadas do português brasileiro, a partir do qual foram implementados os dois grupos de modelos de natureza probabilística que formam o quadro de abordagens desenhado pelo projeto. O primeiro grupo se baseia na noção de N-gramas, em que a atribuição de acento a uma palavra ocorre a partir da probabilidade das cadeias de tamanho \" que a compõem, configurando-se, assim, um modelo que enxerga padrões simples de coocorrência e que é computacionalmente eficiente. O segundo grupo de modelos foi chamado de classificador bayesiano ingênuo, que é uma abordagem probabilística mais sofisticada e exigente em termos de corpus e que leva em consideração um vetor de traços a serem definidos para, no caso, atribuir o acento de uma palavra. Esses traços englobaram tanto características morfológicas, quanto prosódicas e segmentais das palavras. / The main goal of this project was to provide insight into the behavior of stress patterns of Brazilian Portuguese using computational tools in order to find eventual relationships between segmental, prosodic or morphologic features and word stress. Such analysis was based on a critical reading of some of the main proposals from theoretical phonology regarding the matter. This was considered the first step towards an innovative approach for this field of research. Such discussion was concluded by implementing algorithms representing models of the theoretical proposals for treating the behavior of stress. Afterward, those solutions were tested in relevant corpora of Portuguese aiming to analyze both the words which fell inside what was considered standard and the words that should be considered exceptions to the typical behavior in the language. Simultaneously, a noted corpus of Brazilian Portuguese words was compiled, from which were implemented both groups of models that have probabilistic nature that completes the frame of approaches drawn from this project. The first group is composed of models based on the notion of N-grams, in which the attribution of stress to a word happens based on the probability attributed to the `n\' sized chains that compose this word, which results in a model that is sensitive to patterns of co-occurrence and computationally efficient. The second group of models is called Naive Bayes Classifier, which is a more sophisticated probabilistic approach that is more corpus demanding, this approach takes into account a vector of features that was defined in order to attribute stress to a word. Those features were morphological, prosodic and segmental characteristics of the words.
|
156 |
Abordagem bayesiana da isoterma de langmuirCARVALHO, Diailison Teixeira de 12 February 2016 (has links)
Os metais-traço são contaminantes altamente tóxicos presentes sobretudo no meio aquático.
Uma técnica eficiente para remoção desses metais-traço é o processo de adsorção. Em estudos
laboratoriais relacionados à adsorção há a geração de materiais contaminados, o que
implica em riscos socioambientais, além de custos adicionais associados ao tratamento e descarte
apropriado dos resíduos tóxicos gerados. Diante disso, há uma limitação prática na
quantidade de amostra disponível. O processo de adsorção pode ser descrito por isotermas
de adsorção, das quais a mais conhecida é a isoterma de Langmuir. Esta isoterma apresenta
o parâmetro k, relacionado à energia de adsorção, e o parâmetro M, que indica a capacidade
máxima de adsorção do metal em uma matriz adsorvente. A estimação destes parâmetros
geralmente baseia-se em métodos assintóticos, portanto para tamanhos de amostras pequenas
as estimativas tendem a apresentar baixa precisão e acurácia. Desse modo, há um impasse em
como obterem-se estimativas precisas e acuradas e ao mesmo tempo utilizar-se de amostras de
tamanho reduzido. Objetivando superar este problema, foi estudado neste trabalho, a aplicação
da inferência bayesiana no ajuste da isoterma de Langmuir considerando prioris informativas e
não informativas. Realizou-se então um estudo de simulação de dados com tamanhos amostrais
de 5, 6, 7, 9, 12, 15, 20, 25 e 30, analisados em dois cenários com diferentes valores de M e k.
Para avaliar a precisão foram utilizados o erro quadrático médio e a amplitude do intervalo HPD
ao nível de 95% de credibilidade, para a acurácia o viés médio relativo absoluto. Amostras das
distribuições marginais a posteriori dos parâmetros foram obtidas pelo amostrador de Gibbs. As
inferências foram realizadas e os resultados indicaram que as estimativas obtidas com uso das
prioris informativas apresentaram maiores precisão e acurácia mesmo em tamanhos amostrais
inferiores. Posteriormente ajustou-se a isoterma sobre dados experimentais de adsorção de
chumbo Pb2+ em cascas de laranja, considerando as prioris propostas e os resultados obtidos
corroboraram com o estudo de simulação. Assim, a metodologia bayesiana mostrou-se eficiente
para a estimação dos parâmetros da isoterma de Langmuir e o uso de prioris informativas permitiu
a obtenção de estimativas com precisão e acurácia satisfatórias para tamanhos amostrais
relativamente inferiores, o que permite contornar a limitação prática da quantidade de amostra
disponível em estudos reais de adsorção. / The trace metals are highly toxic contaminants particularly in the aquatic environment.
The adsorption process is an efficient technique for removing these trace metals. There is a
generation of contaminated materials in studies laboratory related to adsorption, it this implies
social and environmental risks and additional costs associated with treatment and proper disposal
of toxic waste. This fact brings a practical limitation on the amount of sample to be
used. The adsorption process can be described by functions called adsorption isotherms. The
Langmuir isotherm is one of the most used. This isotherm shows the parameter k related to
the energy of adsorption, and the M parameter which indicates the maximum capacity metal
adsorption. The parameter estimation is generally based on asymptotic methods therefore for
small sample sizes estimates tend to have low precision and accuracy. Thus, there is a difficulty
in obtaining precise and accurate estimates at the same time be used for small sample size.
Aiming to overcome this problem has been studied in this work, the application of Bayesian
inference in fitting isotherm Langmuir considering informative and uninformative priors. Then
carried out a study of data simulation with sample sizes of 5, 6, 7, 9, 12, 15, 20, 25 and 30, they
were discussed in two scenarios considering different values of M and k. For the evaluation of
the precision was used the mean square error and the length of a 95% HPD credible intervals, for
to evaluate the accuracy was used the mean bias relative absolute. The samples of the marginal
posterior distributions the parameters were obtained by the Gibbs sampler. The inferences were
made. The results indicated that the estimates obtained with use of informative priors presented
greater precision and accuracy even at lower sample sizes. Subsequently the isotherm was
adjusted on experimental data of adsorption lead (Pb2+) in orange peel considering the priors
proposals and the results corroborate whith the results obtained in the simulation study. Thus,
the methodology bayesian was efficient for the estimation of isotherm parameters of Langmuir
and the use of informative priors, it allowed bypass practical limitation on the amount of sample
available in real adsorption studies. / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
|
157 |
Testes de hipóteses frequentistas e bayesianos para razão áurea via simulação Monte CarloSANTOS, Mariana Moreira Gonçalves 30 March 2015 (has links)
A razão áurea é uma constante irracional que tem sido investigada por pesquisadores de diversas
áreas do conhecimento. Presente na natureza e bastante utilizada em pinturas, esculturas e construções,
a razão áurea está relacionada com a beleza perfeita e a proporção ideal. Atualmente
pesquisas têm associado propriedades como bom funcionamento, eficiência e estabilidade a
estruturas biológicas que possuem essa razão. Para inferir sobre a razão áurea, pesquisadores
têm utilizado diversas metodologias, dentre elas, o teste t de Student, testes não paramétricos
e, em muitos casos, critérios subjetivos. Para se inferir sobre a média das razões de duas
populações não há na literatura um teste específico. Muitos pesquisadores, para inferir se a
razão de determinados segmentos são iguais ao número de ouro zero , utilizam a média das razões
amostrais, para estimar a média das razões populacionais e utilizam o teste t de Student. A
razão de duas variáveis aleatórias quando são independentes, normais padrão é uma variável
aleatória que segue uma distribuição de Cauchy. No entanto, quando as variáveis aleatórias
são dependentes, como é o caso em que se quer inferir sobre a razão áurea, a distribuição
de probabilidade da razão não é conhecida e a inferência baseada em pressuposições que não
são satisfeitas pode levar a resultados não confiáveis. Um dos objetivos desse trabalho foi
avaliar a viabilidade do teste t de Student com diferentes estatísticas, algumas já utilizadas por
pesquisadores e uma proposta, para se inferir sobre a razão áurea. Também foram avaliadas
outras metodologias propostas: o teste não paramétrico Wilcoxon e o teste bayesiano com
priori não-informativa. A avaliação das metodologias dos testes paramétricos e não-paramétrico
se deu através da quantificação e comparação das taxas de erro tipo I e poder dos testes em
diferentes situações de variabilidade e tamanhos de amostra, via simulação Monte Carlo. Para
avaliação do teste bayesiano, quantificou-se as taxas de rejeição de H0 nas simulações quando
as amostras foram geradas sob H0 e sob H1. Como aplicação, foram obtidos dados referentes à
medida dos braços de nove pares de cromossomos de células do genótipo Cerbiatta da Lactuca
sativa L., a alface e os testes foram comparados quando aplicados nessa amostra. Todas as
simulações e as comparações dos testes foram realizadas no programa R. O t de Student com
as estatísticas utilizadas em literatura foi liberal ou apresentou taxas de poder inferiores a
95% na maioria dos cenários e, por isso, não é recomendado. O teste bayesiano com priori
de Jeffreys foi equivalente ao teste t de Student com a estatística proposta, que por sua vez,
apresentou melhor desempenho no controle das taxas de erro tipo I, mas apresentou taxas de
poder inferiores a 95% para amostras pequenas, principalmente quando a variabilidade dos dois
segmentos é maior. Foi verificado que havia a presença de razão áurea nas medidas dos braços
longo e curto do quinto par de cromossomo. / The golden ratio is an irrational constant that has been investigated by researchers from various
fields of knowledge. Present in nature and widely used in paintings, sculptures and buildings,
the golden ratio is related to the perfect beauty and the ideal proportion. Currently research has
associated properties such as proper functioning, efficiency and stability at biological structures
that have golden ratio. In order to study the golden ratio, researchers have used different
methodologies, such as, the Student’s test, non-parametric tests and, in many cases, subjective
criteria. There is no, in the literature, a specific test to infer about the mean ratio of two
populations. Many researchers, to infer if the rate of certain segments are, on average, equal to
the number of gold , use the of sample rates average to estimate the mean of population rates
and use the Student’s test. The ratio of two independent random variables standard normal is a
random variable that follows a Cauchy distribution. However, when the random variables are
dependent, as is the case where it is desired infer about the golden ratio, the ratio probability
distribution is not known. The infer process based on assumptions that are not satisfied can lead
to unreliable results. One goal of this study was to evaluate the viability of the Student’s test
with different statistics, some of them, already used by researchers, and a proposal one to infer
the golden ratio. We evaluated other methodologies proposed: the nonparametric Wilcoxon
test and the Bayesian test with non-informative priori. The evaluation of the methodologies
of parametric tests and nonparametric occurred by quantifying and comparing of the tests
type I errors rate and power in different situations variability and sample sizes, via Monte
Carlo simulation. To evaluate the Bayesian test, it was quantified rejection rates of H0 in the
simulations when the samples were generated under H0 and under H1. As an application, it
was obtained data refers the measuring of the arms of nine pairs of the chromosomes of the cell
Cerbiatta genotype of Lactuca sativa L., the lettuce and the tests were compared when applied
in this sample. All simulations and comparisons of tests were performed using the statistical
software R. The Student’s test with the statistics used in literature was liberal or had power rates
less than 95% in most scenarios and therefore is not recommended. The Bayesian test with
Jeffreys’s priori was equivalent to the Student’s test with the statistical proposal, which in turn
performed better on the control of Type I error rates, but showed lower power rates less than
95 % for small samples, especially when the variability of the two segments is large. It was
verified that there is the presence of golden ratio in the rate between long and short arms in the
fifth pair of chromosome. / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
|
158 |
Precisão e acurácia dos estimadores de máxima verossimilhança dos parâmetros da distribuição Gumbel não estacionáriaNOGUEIRA, Roger dos Santos 20 December 2017 (has links)
A distribuição Gumbel é frequentemente utilizada na modelagem de eventos extremos. O
estimador de verossimilhança é o estimador mais usado para obter as estimativas dos parâmetros
do modelo Gumbel por apresentar boas propriedades assintóticas. Caso a série de dados
possua tendência linear, os estimadores de máxima verossimilhança podem produzir estimativas
viesadas para os parâmetros da distribuição Gumbel. Para contornar essa situação, o modelo
Gumbel não estacionário pode ser utilizado. Esse modelo é, basicamente, o modelo Gumbel
(estacionário) para dados sem tendência, com a inserção da tendência em seu parâmetro posição.
Essa inserção é feita substituindo-se o parâmetro posição em dois termos, em que um é o
coeficiente linear µ0 e o outro é a inclinação da reta µ1. Assim como no modelo Gumbel
estacionário, os parâmetros do modelo Gumbel não estacionário com tendência linear no parâmetro
posição podem ser estimados por meio dos estimadores de máxima verossimilhança.
Dependendo do tamanho da amostra e do quão grande seja a tendência apresentada pelos dados,
pode ser que o modelo Gumbel estacionário seja mais adequado do que o modelo Gumbel
não estacionário com tendência linear no parâmetro posição, ou vice-versa. Nesse sentido, é
importante saber qual modelo deve ser utilizado. O objetivo desse trabalho é avaliar a acurácia e
a precisão dos estimadores de máxima verossimilhança dos parâmetros da distribuição Gumbel
não estacionária com tendência linear no parâmetro posição. Foram simuladas 1000 amostras
de dados em 240 cenários diferentes e foram calculados os erros quadráticos médios e os vieses
médios relativos de cada cenário simulado. Pode-se observar que: se a inclinação da reta for
maior que 0,1% do valor do parâmetro posição do modelo Gumbel, deve-se ajustar o modelo
Gumbel não estacionário aos dados. Em amostras de tamanho igual ou maior do que 50, se
houver suspeita de tendência linear no parâmetro posição, deve-se optar pelo ajuste de um
modelo Gumbel não estacionário com tendência linear no parâmetro posição. / The Gumbel distribution is often used in the extreme events modelling. For this purpose it is
necessary that its parameters are estimated. The estimator most used for this is the maximum
likelihood estimator. The maximum likelihood estimators have good asymptotic properties. In
case of linear trend in the data series, the maximum likelihood estimators may produce biased
estimates for the parameters of the Gumbel distribution. To overcome this situation, Gumbel
model with trend can be used. This model is, basically, the (stationary) Gumbel model to
no trend data, with the insertion of the trend in its position parameter. As in the stationary
Gumbel model, the parameters of the trend Gumbel model can be estimate by means maximum
likelihood estimators. Depending on sample size and on how big is the trend presented by the
data, the stationary Gumbel model can be more appropriate than the trend Gumbel model, or
vice versa. In this respect, it is important to know how model must be used. The objective of
this study is, therefore, to evaluate the accuracy and the precision of the maximum likelihood
estimators of the Gumbel model with linear trend’s parameters. To do this, have been simulated
1,000 data samples on 240 different scenarios and have been calculated the mean squared errors
and the relative mean biases of each simulated scenario. The results lead to the following
conclusions: if the trend was bigger than 0.1% of the Gumbel model’s position parameter value,
the trend Gumbel model must be fitted. In the case of the sample size be equal or bigger than
50 and there is suspect of trend, the trend Gumbel model must be fitted.
|
159 |
Selecting the system most likely to be the best in the presence of an infinite number of alternativesHélcio Vieira Junior 02 December 2011 (has links)
Simulation Optimization (SO) belongs to a broader class of problems called Stochastic Optimization. Most of the proposed SO methodologies in the literature aim to optimize the expected value of the performance measure. This thesis focus is on another class of problems: Multinomial Selection Procedures (MSPs). These procedures select the best alternative, where best is defined more broadly as that which has the largest probability of yielding the desired response in only one trial. The MSPs found in the literature aim to compare a (small) finite set of alternatives. There are real-world multinomial selection problems in which at least one variable is continuous. The number of alternatives in this kind of problem is infinite. This fact suggests that a new approach be used. Our proposal to solve this new problem is composed by four steps: (1) Initial Sampling: this step aims to reduce the dimension of the problem by identifying the factors that have the greatest influence on the performance measure. In order to accomplish this step, we developed a novel Design of Experiments (DOE) algorithm that generates a design which is nearly orthogonal and also nearly balanced for any mix of factor types (categorical, numerical discrete and numerical continuous) and/or number of factor levels; (2) Subset Selection: the reduction of a great number of sampled points to a subset of small size which has great probability of containing the best system is the purpose of this step. A novel algorithm for the restricted multinomial subset selection problem is proposed as solution to this step; (3) Local Search: the improvement of the solutions generated by the previous step is made by a local search algorithm. We propose an improvement on the algorithm called COMPASS to allow it to deal with two stochastic objective functions as an answer for this step; and (4) Selection of the Best: once we improve the small number of solutions found in step 2, the classical MSP called is used to select the best among them. We also solved a real problem of the Brazilian Air Force: how to elaborate better air-to-air tactics for Beyond Visual Range (BVR) combat that maximize our aircraft';s survival probability, as well as the probability of downing enemy aircraft. In this study, we were able to increase an average success rate of 16.69\% and 16.23\% for and, respectively, to an average success rate of 76.85\% and 79.30\%. We can assure with low probability of being wrong that the selected tactic has greater probability of yielding greater success rates in both and than any simulated tactic.
|
160 |
Construção de uma rede Bayesiana aplicada ao diagnóstico de doenças cardíacas. / Building a Bayesian network for diagnosis of heart diseases.Saheki, André Hideaki 14 March 2005 (has links)
Este trabalho apresenta a construção de um sistema especialista aplicado ao diagnóstico de doenças cardíacas, usando como ferramenta computacional redes Bayesianas. O trabalho envolveu a interação entre diferentes áreas do conhecimento, engenharia e medicina, com maior foco na metodologia da construção de sistemas especialistas. São apresentados os processos de definição do problema, modelagem qualitativa e quantitativa, e avaliação. Neste trabalho, os processos de modelagem e avaliação foram realizados com o auxílio de um especialista médico e de dados bibliográficos. São apresentados como resultados a rede Bayesiana construída e um software para manipulação de redes Bayesianas denominado iBNetz. / This work presents the construction of an expert system applied to the diagnosis of heart diseases, using Bayesian networks as a modeling tool. The work involved interactions between two different fields, engineering and medicine, with special emphasis on the methodology of building expert systems. The processes of problem definition, qualitative and quantitative modeling, and evaluation are presented here. In this work, the modeling and evaluation processes have been conducted with the aid of a medical expert and bibliographic sources. The work has produced a Bayesian network for diagnosis and a software, called iBNetz, for creating and manipulating Bayesian networks.
|
Page generated in 0.0588 seconds