• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 251
  • 14
  • 10
  • 1
  • Tagged with
  • 279
  • 195
  • 138
  • 103
  • 76
  • 63
  • 61
  • 59
  • 56
  • 54
  • 51
  • 51
  • 47
  • 42
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Procura de assinaturas experimentais do modelo 331 com o detector CMS do CERN / Exploring the minimal 331 model in the search for new high mass dimuon resonances in the CMS experiment

Sandro Fonseca de Souza 28 April 2010 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste trabalho investigamos a produção e detecção de novas ressonâncias de uma extensão do Modelo Padrão, o modelo 331, no detector CMS. Este modelo prediz que o número de famílias de férmions seja múltiplo de número de cor dos quarks e apresenta como assinaturas características a existência de novos bósons como o Z' e os bi-léptons duplamente carregados. Concentramos na busca destas ressonâncias de alta massa decaindo em di-múons, no caso do Z', e no canal de 2 múons e 2 elétrons para os estudos sobre os bi-léptons. O método de verossimilhança foi utilizado para quantificar a probabilidade da descoberta do Z', que possui como fundo irredutível o processo Drell Yan. Estudamos também a produção de bi-léptons que são uma assinatura única deste modelo. / In this work, we study the production and detection of the new resonances of an extension of Standard Model, the 331 model, in the CMS detector. This model predicts that the number of fermion families to be a multiple of the number of quark colors and it has as special signatures new bosons, the Z' and the double charged bi-leptons. In the Z' boson analysis, we search it through modification in the mass spectrum of highmass dimuons pairs and for the double charged bi-leptons search in the 2 muons and 2 electrons decay channel. The potential discovery of Z' boson was estimated using the Likelihood Method where the Drell-Yan process is the main background. The bi-leptons are an exclusive signature of model, which was used to discriminate this model.
132

Regionalização hidrológica do Estado de Santa Catarina: uma abordagem sazonal e geoestatística baseada em modelos / Hydrologic regionalization of Santa Catarina state: a seasonal and geostatistical approach based on models

Wagner Wolff 12 January 2017 (has links)
A regionalização hidrológica é uma técnica que permite transferir informação de regiões hidrologicamente monitoradas, para regiões com pouco ou sem monitoramento. Sendo assim, é uma ferramenta útil, a qual permite uma avaliação dinâmica dos recursos hídricos. No Brasil e no Estado de Santa Catarina as leis que são as principais referências para a gestão de recursos hídricos utilizam critérios anuais de disponibilidade hídrica, impossibilitando um maior uso em épocas onde a disponibilidade é maior e, assim, afetando o desenvolvimento econômico. As previsões sazonais servem de base para uma gestão e utilização sustentável dos recursos hídricos. A justificativa de não se usar critérios sazonais, talvez seja pelo fato de não existir trabalhos ou ferramentas que contemplam o estado da arte da regionalização hidrológica. O objetivo deste trabalho é fazer a regionalização hidrológica do Estado de Santa Catarina, mediante uma abordagem geoestatística baseada em modelos e na sazonalidade. Foram utilizados estações pluviométricas e fluviométricas disponibilizadas, respectivamente, pela Companhia de Pesquisa de Recursos Minerais (CPRM) e Agência Nacional das Águas (ANA). As estações são distribuídas regularmente e em alta densidade sobre o Estado. Para a modelagem geoestatística, inicialmente foi verificada algumas suposições a serem consideradas, entre elas, a normalidade e a estacionaridade espacial dos dados. Após as suposições terem sido aceitas foi verificado, por meio de testes estatísticos em função da verossimilhança, se a estrutura de dependência espacial do modelo geoestatístico aumentava o desempenho do mesmo, justificando o uso dessa estrutura para a espacialização das variáveis pluviométricas e fluviométricas. Para verificar os pressupostos de uma boa predição, foi avaliada a dispersão dos resíduos das interpolações espaciais, mediante uma validação cruzada. Os resultados mostraram um melhor desempenho para os modelos geoestatísticos com a estrutura de dependência espacial, para todas as variáveis; assim, esses modelos foram utilizados para a interpolação espacial, no qual foi observado pela dispersão dos resíduos uma boa predição. Este trabalho contribui para uma melhor representação espacial de variáveis sazonais no Estado de Santa Catarina e permite um avanço no estado da arte, uma vez que está embasado em critérios de verossimilhança para escolha de modelos que representam melhor o fenômeno estudado no espaço. / Hydrologic regionalization is a technique that allows the transfer of information from regions hydrologically monitored, for regions with little or no monitoring. Therefore, this technique allows a dynamic evaluation of water resources being a useful tool. In Brazil and in Santa Catarina state, the laws that are the main references for the management of water resources use annual criteria of water availability. Thus, using a greater amount of resources when availability is greater is infeasible and affects economic development. Seasonal forecasts provide the basis for sustainable management and use of water resources. The justification for not using seasonal criteria may be because there are no works or tools that contemplate the state of the art of hydrologic regionalization. The aim of this work is to make the hydrologic regionalization of Santa Catarina state, using a geostatistical approach based on models and in seasonality. Data from rain gauge and streamflow stations made available by the Mineral Resources Research Company (CPRM) and National Water Agency (ANA), respectively, were used. These stations have regular distribution and high density within the state. For the geostatistical modeling, some basic assumptions such as data normality and spatial stationarity were verified. After accepting the assumptions it was verified through statistical tests regarding its likelihood, if the structure of spatial dependence of the geostatistical model increase its performance, justifying the use of this structure for the precipitation and streamflow spatialization. To check the assumptions of good prediction, the residue dispersion of the spatial interpolations was evaluated through cross-validation. The results showed a better performance for the geostatiscal models with the spatial dependence structure, both for precipitation and streamflow. Thus, these models were used to the spatial interpolation, observing a good prediction through the residue dispersion. This work contributes to a better spatial representation of seasonal variables in Santa Catarina state and allows an advance in the state of the art, since it is based on likelihood criteria to choose models that better represent the phenomenon studied in space.
133

Estimation and Identification of a DSGE model: an Application of the Data Cloning Methodology / Estimação e identificação de um Modelo DSGE: uma applicação da metodologia data cloning

Pedro Luiz Paulino Chaim 18 January 2016 (has links)
We apply the data cloning method developed by Lele et al. (2007) to estimate the model of Smets and Wouters (2007). The data cloning algorithm is a numerical method that employs replicas of the original sample to approximate the maximum likelihood estimator as the limit of Bayesian simulation-based estimators. We also analyze the identification properties of the model. We measure the individual identification strength of each parameter by observing the posterior volatility of data cloning estimates, and access the identification problem globally through the maximum eigenvalue of the posterior data cloning covariance matrix. Our results indicate that the model is only poorly identified. The system displays bad global identification properties, and most of its parameters seem locally ill-identified. / Neste trabalho aplicamos o método data cloning de Lele et al. (2007) para estimar o modelo de Smets e Wouters (2007). O algoritmo data cloning é um método numérico que utiliza réplicas da amostra original para aproximar o estimador de máxima verossimilhança como limite de estimadores Bayesianos obtidos por simulação. Nós também analisamos a identificação dos parâmetros do modelo. Medimos a identificação de cada parâmetro individualmente ao observar a volatilidade a posteriori dos estimadores de data cloning. O maior autovalor da matriz de covariância a posteriori proporciona uma medida global de identificação do modelo. Nossos resultados indicam que o modelo de Smets e Wouters (2007) não é bem identificado. O modelo não apresenta boas propriedades globais de identificação, e muitos de seus parâmetros são localmente mal identificados.
134

Computação bayesiana aproximada: aplicações em modelos de dinâmica populacional / Approximate Bayesian Computation: applications in population dynamics models

Maria Cristina Martins 29 September 2017 (has links)
Processos estocásticos complexos são muitas vezes utilizados em modelagem, com o intuito de capturar uma maior proporção das principais características dos sistemas biológicos. A descrição do comportamento desses sistemas tem sido realizada por muitos amostradores baseados na distribuição a posteriori de Monte Carlo. Modelos probabilísticos que descrevem esses processos podem levar a funções de verossimilhança computacionalmente intratáveis, impossibilitando a utilização de métodos de inferência estatística clássicos e os baseados em amostragem por meio de MCMC. A Computação Bayesiana Aproximada (ABC) é considerada um novo método de inferência com base em estatísticas de resumo, ou seja, valores calculados a partir do conjunto de dados (média, moda, variância, etc.). Essa metodologia combina muitas das vantagens da eficiência computacional de processos baseados em estatísticas de resumo com inferência estatística bayesiana uma vez que, funciona bem para pequenas amostras e possibilita incorporar informações passadas em um parâmetro e formar uma priori para análise futura. Nesse trabalho foi realizada uma comparação entre os métodos de estimação, clássico, bayesiano e ABC, para estudos de simulação de modelos simples e para análise de dados de dinâmica populacional. Foram implementadas no software R as distâncias modular e do máximo como alternativas de função distância a serem utilizadas no ABC, além do algoritmo ABC de rejeição para equações diferenciais estocásticas. Foi proposto sua utilização para a resolução de problemas envolvendo modelos de interação populacional. Os estudos de simulação mostraram melhores resultados quando utilizadas as distâncias euclidianas e do máximo juntamente com distribuições a priori informativas. Para os sistemas dinâmicos, a estimação por meio do ABC apresentou resultados mais próximos dos verdadeiros bem como menores discrepâncias, podendo assim ser utilizado como um método alternativo de estimação. / Complex stochastic processes are often used in modeling in order to capture a greater proportion of the main features of natural systems. The description of the behavior of these systems has been made by many Monte Carlo based samplers of the posterior distribution. Probabilistic models describing these processes can lead to computationally intractable likelihood functions, precluding the use of classical statistical inference methods and those based on sampling by MCMC. The Approxi- mate Bayesian Computation (ABC) is considered a new method for inference based on summary statistics, that is, calculated values from the data set (mean, mode, variance, etc.). This methodology combines many of the advantages of computatio- nal efficiency of processes based on summary statistics with the Bayesian statistical inference since, it works well for small samples and it makes possible to incorporate past information in a parameter and form a prior distribution for future analysis. In this work a comparison between, classical, Bayesian and ABC, estimation methods was made for simulation studies considering simple models and for data analysis of population dynamics. It was implemented in the R software the modular and maxi- mum as alternative distances function to be used in the ABC, besides the rejection ABC algorithm for stochastic differential equations. It was proposed to use it to solve problems involving models of population interaction. The simulation studies showed better results when using the Euclidean and maximum distances together with informative prior distributions. For the dynamic systems, the ABC estimation presented results closer to the real ones as well as smaller discrepancies and could thus be used as an alternative estimation method.
135

Caracterização e extensões da distribuição Burr XII: propriedades e aplicações / Characterization and extensions of the Burr XII distribution: Properties and Applications

Patrícia Ferreira Paranaíba 21 September 2012 (has links)
A distribuição Burr XII (BXII) possui, como casos particulares, as distribuições normal, log-normal, gama, logística, valor extremo tipo I, entre outras. Por essa razão, ela é considerada uma distribuição flexível no ajuste dos dados. As ideias de Eugene; Lee e Famoye (2002) e Cordeiro e Castro (2011) foram utilizadas para o desenvolvimento de duas novas distribuições de probabilidade a partir da distribuição BXII. Uma delas é denominada beta Burr XII (BBXII) e possui cinco parâmetros. Desenvolveu-se o modelo de regressão log-beta Burr XII (LBBXII). A outra distribuição é denominada de Kumaraswamy Burr XII (KwBXII) e possui cinco parâmetros. A vantagem desses novos modelos reside na capacidade de acomodar várias formas da função risco, além disso, eles também se mostraram úteis na discriminação de modelos. Para cada um dos modelos foram calculados os momentos, função geradora de momentos, os desvios médios, a confiabilidade e a função densidade de probabilidade da estatística de ordem. Foi realizado um estudo de simulação para avaliar o desempenho desses modelos. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação das novas distribuições foram analisados alguns conjuntos de dados reais. / The Burr XII (BXII) distribution has as particular cases the normal, lognormal, gamma, logistic and extreme-value type I distributions, among others. For this reason, it is considered a flexible distribution for fitting data. In this paper, the ideas of Eugene; Lee e Famoye (2002) and Cordeiro and Castro (2011) is used to develop two new probability distributions based on the BBXII distribution. The first is called beta Burr XII (BBXII) and has five parameters. Based in these, we develop the extended generalized log-beta Burr XII regression model. The other distribution is called Kumaraswamy Burr XII (KwBXII) and has five parameters. The advantage of these new models rests in their capacity to accommodate various risk function forms. They are also useful in model discrimination. We calculate the moments, moments generating function, mean deviations, reliability and probability density function of the order statistics. A simulation study was conducted to evaluate the performance of these models. To estimate the parameters we use the maximum likelihood and Bayesian methods. Finally, to illustrate the application of the new distributions, we analyze some real data sets.
136

Simulação de dados visando à estimação de componentes de variância e coeficientes de herdabilidade / Simulation of data aiming at the estimation of variance components and heritability

Angela Mello Coelho 03 February 2006 (has links)
A meta principal desse trabalho foi comparar métodos de estimação para coeficientes de herdabilidade para os modelos inteiramente ao acaso e em blocos casualizados. Para os dois casos foram utilizadas as definições de coeficiente de herdabilidade (h2) no sentido restrito, dadas respectivamente, por h2=4 σ2t/(σ2+σ2t) e h2=4 σ2t/(σ2+σ2t+σ2b). . Portanto, é preciso estimar os componentes de variância relativos ao erro experimental (σ2) e ao efeito de tratamentos (σ2t) quando se deseja estimar h2 para o modelo inteiramente ao acaso. Para o modelo para blocos casualizados, além de estimar os últimos dois componentes, é necessário estimar o componente de variância relativo ao efeito de blocos (σ2b). Para atingir a meta estabelecida, partiu-se de um conjunto de dados cujo coeficiente de herdabilidade é conhecido, o que foi feito através da simulação de dados. Foram comparados dois métodos de estimação, o método da análise da variância e método da máxima verossimilhança. Foram feitas 80 simulações, 40 para cada ensaio. Para os dois modelos, as 40 simulações foram divididas em 4 casos contendo 10 simulações. Cada caso considerou um valor distinto para h2, esses foram: h2=0,10; 0,20; 0,30 e 0,40; para cada um desses casos foram fixados 10 valores distintos para o σ2, a saber: σ2=10; 20; 30; 40; 50; 60; 70; 80; 90; 100. Os valores relativos ao σ2 foram encontrados através da equação dada para os coeficientes de herdabilidade, sendo que, para o modelo em blocos casualizados, foi fixado σ2b=20 para todas os 40 casos. Após realizadas as 80 simulações, cada uma obtendo 1000 conjunto de dados, e por conseqüência 1000 estimativas para cada componente de variância e coeficiente de herdabilidade relativos a cada um dos casos, foram obtidas estatísticas descritivas e histogramas de cada conjunto de 1000 estimativas. A comparação dos métodos foi feita através da comparação dessas estatísticas descritivas e histogramas, tendo como referência os valores dos parâmetros utilizados nas simulações. Para ambos os modelos observou-se que os dois métodos se aproximam quanto a estimação de σ2. Para o delineamento inteiramente casualizado, o método da máxima verossimilhança forneceu estimativas que, em média, subestimaram os valores de σ2t, e por conseqüência, tendem a superestimar o h2, o que não acontece para o método da análise da variância. Para o modelo em blocos casualizados, ambos os métodos se assemelham, também, quanto à estimação de σ2t, porém o método da máxima verossimilhança fornece estimativas que tendem a subestimar o σ2b, e e por conseqüência, tendem a superestimar o h2, o que não acontece para o método da análise da variância. Logo, o método da análise da variância se mostrou mais confiável quando se objetiva estimar componentes de variância e coeficientes de herdabilidade para ambos os modelos considerados. / The main aim of this work was to compare methods of estimation of heritability for the 1- way classification and the 2-way crossed classification without interaction. For both cases the definition of heritability (h2) in the narrow sense was used, given respectively, by h2=4σ2t/(σ2+σ2t) e h2=4σ2t/(σ2+σ2t+σ2b). Therefore, there is a need to estimate the components of variance related to the residual (σ2) and the effect of treatments (σ2t) in order to estimate (h2) for the 1-way classification. For the 2-way classification without interaction, there is a need to estimate the component of variance related to the effect of blocks (σ2b) as well as the other two components. To achieve the established aim, a data set with known heritability was used, produced by simulation. Two methods of estimation were compared: the analysis of variance method and the maximum likelihood method. 80 simulations were made, 40 for each classification. For both models, the 40 simulations were divided into 4 different groups containing 10 simulations. Each group considered a different value for h2 (h2=0,10; 0,20; 0,30 e 0,40) and for each one of those cases there were 10 different values fixed for) σ2 (σ2=10; 20; 30; 40; 50; 60; 70; 80; 90; 100). The values for σ2t were found using the equations for the heritability, and for the 2-way crossed classification without interaction, σ2b=20 for all the 40 cases. After the 80 simulations were done, each one obtaining 1000 data sets, and therefore 1000 estimates of each component of variance and the heritability, descriptive statistics and histograms were obtained for each set of 1000 estimates. The comparison of the methods was made based on the descriptive statistics and histograms, using as references the values of the parameters used in the simulations. For both models, the estimates of σ2 were close to the true values. For the 1-way classification, the maximum likelihood method gave estimates that, on average, underestimated the values of σ2t, and therefore the values of h2. This did not happen with the analysis of variance method. For the 2-way crossed classification without interaction, both methods gave similar estimates of σ2t, although the maximum likelihood method gave estimates that tended to underestimate σ2b and therefore to overestimate h2. This did not happen with the analysis of variance method. Hence, the analysis of variance method proved to be more accurate for the estimation of variance components and heritability for both classifications considered in this work.
137

Modelos de transição para dados binários / Transition models for binary data

Idemauro Antonio Rodrigues de Lara 31 October 2007 (has links)
Dados binários ou dicotômicos são comuns em muitas áreas das ciências, nas quais, muitas vezes, há interesse em registrar a ocorrência, ou não, de um evento particular. Por outro lado, quando cada unidade amostral é avaliada em mais de uma ocasião no tempo, tem-se dados longitudinais ou medidas repetidas no tempo. é comum também, nesses estudos, se ter uma ou mais variáveis explicativas associadas às variáveis respostas. As variáveis explicativas podem ser dependentes ou independentes do tempo. Na literatura, há técnicas disponíveis para a modelagem e análise desses dados, sendo os modelos disponíveis extensões dos modelos lineares generalizados. O enfoque do presente trabalho é dado aos modelos lineares generalizados de transição para a análise de dados longitudinais envolvendo uma resposta do tipo binária. Esses modelos são baseados em processos estocásticos e o interesse está em modelar as probabilidades de mudanças ou transições de categorias de respostas dos indivíduos no tempo. A suposição mais utilizada nesses processos é a da propriedade markoviana, a qual condiciona a resposta numa dada ocasião ao estado na ocasião anterior. Assim, são revistos os fundamentos para se especificar tais modelos, distinguindo-se os casos estacionário e não-estacionário. O método da máxima verossimilhança é utilizado para o ajuste dos modelos e estimação das probabilidades. Adicionalmente, apresentam-se testes assintóticos para comparar tratamentos, baseados na razão de chances e na diferença das probabilidades de transição. Outra questão explorada é a combinação do modelo de efeitos aleatórios com a do modelo de transição. Os métodos são ilustrados com um exemplo da área da saúde. Para esses dados, o processo é considerado estacionário de ordem dois e o teste proposto sinaliza diferença estatisticamente significativa a favor do tratamento ativo. Apesar de ser uma abordagem inicial dessa metodologia, verifica-se, que os modelos de transição têm notável aplicabilidade e são fontes para estudos e pesquisas futuras. / Binary or dichotomous data are quite common in many fields of Sciences in which there is an interest in registering the occurrence of a particular event. On the other hand, when each sampled unit is evaluated in more than one occasion, we have longitudinal data or repeated measures over time. It is also common, in longitudinal studies, to have explanatory variables associated to response measures, which can be time dependent or independent. In the literature, there are many approaches to modeling and evaluating these data, where the models are extensions of generalized linear models. This work focus on generalized linear transition models suitable for analyzing longitudinal data with binary response. Such models are based on stochastic processes and we aim to model the probabilities of change or transitions of individual response categories in time. The most used assumption in these processes is the Markov property, in which the response in one occasion depends on the immediately preceding response. Thus we review the fundamentals to specify these models, showing the diferences between stationary and non-stationary processes. The maximum likelihood approach is used in order to fit the models and estimate the probabilities. Furthermore, we show asymptotic tests to compare treatments based on odds ratio and on the diferences of transition probabilities. We also present a combination of random-efects model with transition model. The methods are illustrated with health data. For these data, the process is stationary of order two and the suggested test points to a significant statistical diference in favor of the active treatment. This work is an initial approach to transition models, which have high applicability and are great sources for further studies and researches.
138

Aplicação de equações de modelos mistos em testes clonais de Eucalyptus spp. / The aplication of mixed models equations in the Eucalyptus spp clonal experiments.

Carlos Henrique Garcia 19 November 2004 (has links)
A avaliação genética dos candidatos à seleção é um processo fundamental ao melhoramento genético de plantas e animais. Em plantas perenes, a seleção propriamente dita deve basear-se nos valores genéticos aditivos (quando o interesse é a propagação sexuada dos indivíduos selecionados) e genotípicos (quando o interesse é a propagação assexuada dos indivíduos selecionados) preditos de todos os indivíduos avaliados em campo. As técnicas ótimas de avaliação genética envolvem simultaneamente a predição de valores genéticos e a estimação de componentes de variância, sob modelos estatísticos em nível de indivíduos. O procedimento ótimo e padrão para predição de valores genéticos é o BLUP (melhor predição linear não viciada) individual, usando estimativas de componentes de variância obtidas pelo método da máxima verossimilhança restrita (REML) sob modelo individual. No presente estudo, foram testados 312 clones de um experimento de Eucalyptus spp in-stalado em Eunápolis, BA, incluindo as espécies grandis, pellita e híbridos urograndis aos 7 anos de idade. Com o objetivo de selecionar os melhores clones foi obtida a Melhor Predição Linear não Viesada (BLUP) dos efeitos genotípicos via metodologia de modelos mistos e estimados os componentes de variância e parâmetros genotípicos pelo processo da Máxima Verossimilhança Restrita (REML). O vetor de soluções das equações de modelos mistos processadas pelo programa SELEGEN, desenvolvido pela Embrapa, apresenta os efeitos genotípicos preditos, ganhos de seleção e valores genotípicos preditos para cada clone. A seleção dos clones com desempenho relativo superior a 80% resultou numa nova média para volume igual a 0,519 m3 correspondendo a um aumento de 22,8% em relação à média das testemunhas (clones de E. grandis, origem Rio Claro), que foi de 0,415 m3, e ganho de 36,8% em relação à média do experimento, que foi equivalente a 0,380 m3. Foram selecionados 26 clones, sendo 23 procedentes da Aracruz (E. urograndis), dois de Avaré (híbridos de E. urophylla) e um originário de Cardwell, Austrália (E. grandis puro). / The genetic evaluation of candidates to the selection is a fundamental process to the genetic improvement of plants and animals. In perennial plants, the selection properly said should be based in the addictive genetic values (when the interest is the sexuated propagation of the selected individuals) and genotypics (when the interest is the vegetative propagation of selected individuals) predicted of all the individuals evaluated in ¯eld. The optimized techniques of genetic evaluation involve the simultaneous prediction of genetic values and the estimate of variance components, under statistical models in individual level. The optimum and standard procedure for prediction of breeding values is the BLUP (best linear unbiased prediction) individual, using estimates of variance components obtained by the method of the restricted maximum likelihood (REML) under individual model. A clonal test of Eucalyptus spp was evaluated in Eunápolis, Bahia state. The objective of this work was selecting the best clones based on Best Lineal Unbiased Prediction (BLUP) of the genotypic effects using the Mixed Models Methodology. The variance components and genotypic parameters were obtained by using the Maximum Restricted Likeli- hood (REML) process. The vector of solutions of mixed models equations, processed by the program SELEGEN, developed by Embrapa, presents the predicted genotypic effects, gain of selection and predicted genotypic values for each clone. The selection of the best clones by the REM/BLUP methodology was e±cient with high gain by selection. The selection of the clones with superior relative acting at 80% resulted in a new average for volume equal to 0,519 m3 corresponding to an increase of 22,8% in relation to the average of the witness (clones of E. grandis, from Rio Claro), and a gain of 36,8% in relation to the average of the experiment, that was equivalent at 0,380 m3. From total, 26 clones were selected, being 23 of Aracruz (E. urograndis), 2 of Avaré (hybrid of E. urophylla) and 1 of Cardwell, Australia (E. grandis).
139

A distribuição beta Weibull inversa generalizada: desenvolvimentos e aplicações

ROGES, Danielle Loureiro 25 February 2011 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-06-28T14:27:55Z No. of bitstreams: 1 Daniele Loureiro Roges.pdf: 678963 bytes, checksum: 0dbfd6df9d81303105780529eb0021cb (MD5) / Made available in DSpace on 2016-06-28T14:27:55Z (GMT). No. of bitstreams: 1 Daniele Loureiro Roges.pdf: 678963 bytes, checksum: 0dbfd6df9d81303105780529eb0021cb (MD5) Previous issue date: 2011-02-25 / The Generalized InverseWeibull distribution (WIG), proposed by Gusmão et al. (2009), which has the ability to model hazard function with unimodal shape, which are quite common in biological and reliability studies, is generalized by a beta. It has, as proposed, the Beta Generalized Inverse Weibull distribution (BGIW) with five parameters and failure rate decreasing and unimodal. The distribution BWIG has WIG as a particular case. A comprehensive treatment of mathematical properties of BWIG is provided, and found the expressions for their generating functions of moments and the certain generalized r-th moment. There was also a discussion of maximum likelihood estimation and the expressions for the elements of observed information matrix. The distribution of Log-Beta Generalized Inverse Weibull and its respective regression also been developed. Also were found the Entropy of Shanonn and the Order Statistics of the distribution BWIG. A comparison of the results provided by the WIG and BWIG distributions was performed by modeling a data set agrarian. / A distribuicão Weibull Inversa Generalizada (WIG), proposta por Gusmão et al. (2009), que tem a habilidade de modelar funções de risco com forma unimodal, questões bastante comuns em estudos biológicos e de confiabilidade, é generalizada por uma beta. Daí tem-se, como proposta, a distribuição Beta Weibull Inversa Generalizada (BWIG) com cinco parâmetros e taxa de falha decrescente e unimodal. A BWIG tem a distribuição WIG como um caso particular. Um compreensivo tratamento das propriedades matemáticas da BWIG é provido, sendo encontradas as expressões para suas funções geradoras de momentos e determinado o r-ésimo momento generalizado. Também foi realizada uma discussão sobre a estimação da máxima verossimilhança e as expressões para os elementos da matriz de informação observada. A distribuição Log-Beta Weibull Inversa Generalizada e sua respectiva regressão também foram desenvolvidas. Ainda foram encontradas a Entropia de Shanonn e a Estatística de Ordem da distribuição BWIG. Um comparativo sobre os resultados fornecidos pelas distribuições WIG e BWIG foi realizado a partir da modelagem de um conjunto de dados agrários.
140

Teoria de resposta ao item aplicada no ENEM / Theory of response to the item applied in the ENEM

Costa, Sidney Tadeu Santiago 03 March 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-03-15T17:36:59Z No. of bitstreams: 2 Dissertação - Sidney Tadeu Santiago Costa - 2017.pdf: 1406618 bytes, checksum: 291719e6f7eaaff496ec405e241ce518 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-03-20T12:39:15Z (GMT) No. of bitstreams: 2 Dissertação - Sidney Tadeu Santiago Costa - 2017.pdf: 1406618 bytes, checksum: 291719e6f7eaaff496ec405e241ce518 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-03-20T12:39:15Z (GMT). No. of bitstreams: 2 Dissertação - Sidney Tadeu Santiago Costa - 2017.pdf: 1406618 bytes, checksum: 291719e6f7eaaff496ec405e241ce518 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-03-03 / With the note gotten in the Exame Nacional do Ensino Médio - ENEM the students can applay the vacant in diverse public institutions of superior education and programs of the government, for example, the program Universidade para Todos(Prouni) and the Fundo de Financiamento Estudantil (Fies). The ENEM uses a methodology of correction of the objective questions called Theory of Reply to the Item - TRI, that has some aspects that are different of the Classic Theory of the Tests - TCT. The main factor that determines the result of a citizen in a avaliativo process where if uses the TCT, is the number of correct answers, while in the TRI, beyond the amount of rightnesss is basic if to analyze which answers they are correct. The objective of this work is to explain what it is the TRI and as if it applies this methodology in evaluations of wide scale. A historical boarding of the logistic models used by the TRI and the justification of the existence of each parameter will be made that composes the main equation of the modeling. To determine each parameter that composes the model of the TRI and to calculate the final note of each candidate, a procedure of called optimization will be used Method of Maximum Probability - MMV. The computational tools in the work had been software R, with packages developed for application of the TRI and the Visual programming language beginner’s all-purpose symbolic instruction code to program functions, called as macros, in electronic spread sheets. / Com a nota obtida no Exame Nacional do Ensino Médio - ENEM os estudantes podem se candidatar a vagas em diversas instituições públicas de ensino superior e programas do governo, por exemplo, o programa Universidade para Todos (Prouni) e o Fundo de Financiamento Estudantil (Fies). O ENEM utiliza uma metodologia de correção das questões objetivas denominada Teoria de Resposta ao Item - TRI, que possui vários aspectos que são diferentes da Teoria Clássica dos Testes - TCT. O principal fator que determina o resultado de um sujeito em um processo avaliativo onde se utiliza a TCT, é o número de respostas corretas, enquanto na TRI, além da quantidade de acertos é fundamental se analisar quais respostas estão corretas. O objetivo deste trabalho é explicar o que é a TRI e como se aplica essa metodologia em avaliações de larga escala. Será feita uma abordagem histórica dos modelos logísticos utilizados pela TRI e a justificativa da existência de cada parâmetro que compõe a equação principal da modelagem. Para determinar cada parâmetro que compõe o modelo da TRI e calcular a nota final de cada candidato, será utilizado um procedimento de otimização denominado Método da Máxima Verossimilhança - MMV. As ferramentas computacionais no trabalho foram o software R, com pacotes desenvolvidos para aplicação da TRI e a linguagem de programação Visual Basic para programar funções, denominadas como macros, em planilhas eletrônicas.

Page generated in 0.0612 seconds