• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 6
  • 3
  • Tagged with
  • 89
  • 89
  • 28
  • 25
  • 21
  • 17
  • 16
  • 11
  • 11
  • 11
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modelos lineares mistos em dados longitudionais com o uso do pacote ASReml-R / Linear Mixed Models with longitudinal data using ASReml-R package

Alcarde, Renata 10 April 2012 (has links)
Grande parte dos experimentos instalados atualmente é planejada para que sejam realizadas observações ao longo do tempo, ou em diferentes profundidades, enfim, tais experimentos geralmente contem um fator longitudinal. Uma maneira de se analisar esse tipo de conjunto de dados é utilizando modelos mistos, por meio da inclusão de fatores de efeito aleatório e, fazendo uso do método da máxima verossimilhança restrita (REML), podem ser estimados os componentes de variância associados a tais fatores com um menor viés. O pacote estatístico ASReml-R, muito eficiente no ajuste de modelos lineares mistos por possuir uma grande variedade de estruturas para as matrizes de variâncias e covariâncias já implementadas, apresenta o inconveniente de nao ter como objetos as matrizes de delineamento X e Z, nem as matrizes de variâncias e covariâncias D e , sendo estas de grande importância para a verificação das pressuposições do modelo. Este trabalho reuniu ferramentas que facilitam e fornecem passos para a construção de modelos baseados na aleatorização, tais como o diagrama de Hasse, o diagrama de aleatorização e a construção de modelos mistos incluindo fatores longitudinais. Sendo o vetor de resíduos condicionais e o vetor de parâmetros de efeitos aleatórios confundidos, ou seja, não independentes, foram obtidos resíduos, denominados na literatura, resíduos com confundimento mínimo e, como proposta deste trabalho foi calculado o EBLUP com confudimento mínimo. Para tanto, foram implementadas funções que, utilizando os objetos de um modelo ajustado com o uso do pacote estatístico ASReml-R, tornam disponíveis as matrizes de interesse e calculam os resíduos com confundimento mínimo e o EBLUP com confundimento m´nimo. Para elucidar as técnicas neste apresentadas e salientar a importância da verificação das pressuposições do modelo adotado, foram considerados dois exemplos contendo fatores longitudinais, sendo o primeiro um experimento simples, visando a comparação da eficiência de diferentes coberturas em instalações avícolas, e o segundo um experimento realizado em três fases, contendo fatores inteiramente confundidos, com o objetivos de avaliar características do papel produzido por diferentes espécies de eucaliptos em diferentes idades. / Currently, most part of the experiments installed is designed to be carried out observations over time or at different depths. These experiments usually have a longitudinal factor. One way of analyzing this data set is by using mixed models through means of inclusion of random effect factors, and it is possible to estimate the variance components associated to such factors with lower bias by using the Restricted maximum likelihood method (REML). The ASRemi-R statistic package, very efficient in fitting mixed linear models because it has a wide variety of structures for the variance - covariance matrices already implemented, presents the disadvantage of having neither the design matricesX and Z, nor the variance - covariance matrices D and , and they are very important to verify the assumption of the model. This paper gathered tools which facilitate and provide steps to build models based on randomization such as the Hasse diagram, randomization diagram and the mixed model formulations including longitudinal factors. Since the conditional residuals and random effect parameters are confounded, that is, not independent, it was calculated residues called in the literature as least confounded residuals and as a proposal of this work, it was calculated the least confound EBLUP. It was implemented functions which using the objects of fitted models with the use of the ASReml-R statistic package becoming available the matrices of interests and calculate the least confounded residuals and the least confounded EBLUP. To elucidate the techniques shown in this paper and highlight the importance of the verification of the adopted models assumptions, it was considered two examples with longitudinal factors. The former example was a simple experiment and the second one conducted in three phases, containing completely confounded factors, with the purpose of evaluating the characteristics of the paper produced by different species of eucalyptus from different ages.
72

Classificação de domínios mineralógicos e caracterização de minérios de níquel da mina de Santa Rita - BA, em apoio à geometalurgia. / Classification of mineralogical domais and characterization of nickel ore from Santa Rita mine - BA, in support of geometallurgy.

Contessotto, Renato 16 March 2017 (has links)
A Mina de Santa Rita, situada no complexo máfico-ultramáfico Fazenda Mirabela, é uma intrusão máfica-ultramáfica, mineralizada a sulfetos de níquel e cobre, situada no sudeste do Estado da Bahia, município de Itagibá. Esse depósito é composto por rochas de idade Paleoproterozóica, metamorfizadas em fácies granulito. Os sulfetos de níquel e cobre ocorrem disseminados e, preferencialmente, associados a harzburgitos, olivina ortopiroxenitos e ortopiroxenitos. O minério é composto por uma grande variedade de Mg-silicatos, sendo que o níquel ocorre essencialmente como pentlandita nos peridotitos, além de se apresentar como elemento menor em silicatos e espinélios em rochas mais máficas. Informações de processo demonstram a impossibilidade de se estabelecer uma correlação robusta entre a composição química do minério e seu comportamento na etapa de beneficiamento mineral. Desta forma, o conhecimento da variabilidade mineralógica no depósito é de fundamental importância para o planejamento de lavra e processamento mineral. Mais de 300 amostras do plano de mineração de curto prazo (2013-2017) relativas a intervalos de furos de sondagem considerados no estudo de viabilidade econômica (período de 1985-2004) foram agrupadas em domínios mineralógicos, utilizando a análise estatística multivariada de dados de difração de raios X (DRX-AEM). Dezessete domínios mineralógicos inicialmente definidos são essencialmente diferenciados com base na presença e conteúdos relativos dos principais minerais de ganga: serpentina, olivina e piroxênio. Amostras representativas dos principais domínios mineralógicos, pré-definidos por DRX-AEM, foram submetidas a estudos de caracterização mineralógica de detalhe por análise de imagens (MEV-MLA). Os resultados indicam que os grupos com composições mais peridotíticas e/ou carbonáticas, com maiores conteúdos de serpentina, apresentam menor tempo de moagem para atingir P95 igual a 0,15 mm; maior alteração dos grãos de pentlandita; maior parcela de total de níquel associado a silicatos; menor grau de liberação dos sulfetos; e maior quantidade de sulfetos abaixo de 10 ?m, em relação aos grupos de composição mais piroxenítica. / The Santa Rita mine, located in the mafic-ultramafic complex Fazenda Mirabela, is a mafic-ultramafic intrusion mineralized to nickel and copper sulphides located in the southeast of Bahia state, Itagibá municipality. The nickel sulphide deposit comprises a portion of a mafic-ultramafic layered complex under granulite metamorphism facies. Disseminated Ni and Cu sulphides form a stratiform body parallel to the lithostratigraphic contacts extending upwards essentially from the harzburgite unit and through the olivine orthopyroxenite unit. The nickel content is mainly associated to pentlandite in peridotitic rocks but also enriched in silicates and spinels in mafic rocks (dunites). Industrial plant benchmark data have shown the unfeasibility of establishing a strong relation between the ore chemical composition and its behavior in the mineral beneficiation process. Therefore, the knowledge of the mineralogical variability in the deposit is crucial for mine planning and mineral/metallurgical processing. More than 300 samples from drill core samples from the feasibility studies (period of 1985-2004) included in the short-term mining plan (2013-2017) were clustered into geological domains applying multivariate statistical analysis (MSA) of X-ray diffraction data (XRD). Results discriminated seventeen initial mineralogical domains considering the content of major gangue minerals: serpentine, olivine and pyroxene. Representative samples of the main mineralogical domains pre-defined by XRD-MSA ore-types were later subject to sieve size analysis followed by detailed mineralogical studies by automated SEM image analysis (MLA). The results indicate that groups with more peridotite and / or carbonatic compositions, with higher content of serpentine, have less time of grinding to reach P95 equal to 0,15 mm; high level of pentlandite alteration; greater portion of nickel associated into silicates; lower sulphides liberation degree; and a higher amount of sulphides below 10 ?m; in relation to the most pyroxenic composition groups.
73

Mapeamento de QTLs utilizando as abordagens Clássica e Bayesiana / Mapping QTLs: Classical and Bayesian approaches

Toledo, Elisabeth Regina de 02 October 2006 (has links)
A produção de grãos e outros caracteres de importância econômica para a cultura do milho, tais como a altura da planta, o comprimento e o diâmetro da espiga, apresentam herança poligênica, o que dificulta a obtenção de informações sobre as bases genéticas envolvidas na variação desses caracteres. Associações entre marcadores e QTLs foram analisadas através dos métodos de mapeamento por intervalo composto (CIM) e mapeamento por intervalo Bayesiano (BIM). A partir de um conjunto de dados de produção de grãos, referentes à avaliação de 256 progênies de milho genotipadas para 139 marcadores moleculares codominantes, verificou-se que as metodologias apresentadas permitiram classificar marcas associadas a QTLs. Através do procedimento CIM, associações entre marcadores e QTLs foram consideradas significativas quando o valor da estatística de razão de verossimilhança (LR) ao longo do cromossomo atingiu o valor máximo dentre os que ultrapassaram o limite crítico LR = 11; 5 no intervalo considerado. Dez QTLs foram mapeados distribuídos em três cromossomos. Juntos, explicaram 19,86% da variância genética. Os tipos de interação alélica predominantes foram de dominância parcial (quatro QTLs) e dominância completa (três QTLs). O grau médio de dominância calculado foi de 1,12, indicando grau médio de dominância completa. Grande parte dos alelos favoráveis ao caráter foram provenientes da linhagem parental L0202D, que apresentou mais elevada produção de grãos. Adotando-se a abordagem Bayesiana, foram implementados métodos de amostragem através de cadeias de Markov (MCMC), para obtenção de uma amostra da distribuição a posteriori dos parâmetros de interesse, incorporando as crenças e incertezas a priori. Resumos sobre as localizações dos QTLs e seus efeitos aditivo e de dominância foram obtidos. Métodos MCMC com saltos reversíveis (RJMCMC) foram utilizados para a análise Bayesiana e Fator calculado de Bayes para estimar o número de QTLs. Através do método BIM associações entre marcadores e QTLs foram consideradas significativas em quatro cromossomos, com um total de cinco QTLs mapeados. Juntos, esses QTLs explicaram 13,06% da variância genética. A maior parte dos alelos favoráveis ao caráter também foram provenientes da linhagem parental L02-02D. / Grain yield and other important economic traits in maize, such as plant heigth, stalk length, and stalk diameter, exhibit polygenic inheritance, making dificult information achievement about the genetic bases related to the variation of these traits. The number and sites of (QTLs) loci that control grain yield in maize have been estimated. Associations between markers and QTLs were undertaken by composite interval mapping (CIM) and Bayesian interval mapping (BIM). Based on a set of grain yield data, obtained from the evaluation of 256 maize progenies genotyped for 139 codominant molecular markers, the presented methodologies allowed classification of markers associated to QTLs.Through composite interval mapping were significant when value of likelihood ratio (LR) throughout the chromosome surpassed LR = 11; 5. Significant associations between markers and QTLs were obtained in three chromosomes, ten QTLs has been mapped, which explained 19; 86% of genetic variation. Predominant genetic action for mapped QTLs was partial dominance and (four QTLs) complete dominance (tree QTLs). Average dominance amounted to 1,12 and confirmed complete dominance for grain yield. Most alleles that contributed positively in trait came from parental strain L0202D. The latter had the highest yield rate. Adopting a Bayesian approach to inference, usually implemented via Markov chain Monte Carlo (MCMC). The output of a Bayesian analysis is a posterior distribution on the parameters, fully incorporating prior beliefs and parameter uncertainty. Reversible Jump MCMC (RJMCMC) is used in this work. Bayes Factor is used to estimate the number of QTL. Through Bayesian interval, significant associations between markers and QTLs were obtained in four chromosomes and five QTLs has been mapped, which explained 13; 06% of genetic variation. Most alleles that contributed positively in trait came from parental strain L02-02D. The latter had the highest yield rate.
74

Gerenciamento de projetos: análise dos fatores de risco que influenciam o sucesso de projetos de sistemas de informação / Management projects: analysis of risk factors that influence the success of projects in information systems

Pinto, Sergio Augusto Orfão 18 July 2002 (has links)
Este trabalho é sobre gerenciamento de projetos no contexto da área de sistemas de informação, onde há características específicas e relacionamentos entre elementos tais como : tecnologia, processos de negócio, gerenciamento de mudança, comportamento humano e especificação subjetiva do produto . A taxa de fracassos em projetos de sistemas de informação permanece alta em comparação com outros projetos de tecnologia. O principal objetivo desta pesquisa é contribuir para o conhecimento na área de gerenciamento de projetos de sistemas de informação, focando na investigação dos fatores de risco que podem influenciar no sucesso percebido de um projeto. Um dos desafios deste trabalho foi definir conceitos e medidas objetivas para avaliar os eventos associados com gerenciamento do risco e com o sucesso de projetos. Apoiado na revisão da literatura sobre o tema e em outras pesquisas similares, foi construído um instrumento com o qual diversas dimensões de risco e sucesso foram avaliadas em uma amostra de 180 projetos de sistemas de informação. Cada dimensão foi dividida em classes e cada classe foi detalhada em variáveis métricas em sua maioria. Depois da coleta e validação dos dados da amostra, foram aplicadas algumas técnicas estatísticas para analisar o comportamento das dependências entre fatores de risco e fatores de sucesso. A análise da direção e intensidade de influência de cada fator de risco para cada fator de sucesso reproduziu grande parte do conhecimento obtido da revisão da literatura, mas o nível de detalhe proporcionado pelo uso das técnicas estatísticas permitiu desvendar alguns aspectos que não eram facilmente perceptíveis. As conclusões apresentadas neste trabalho podem ser consideradas por gerentes de projeto que trabalham com produtos de tecnologia de informação, mais especificamente aqueles envolvidos com implantação e/ou desenvolvimento e sistemas de informação. Além disso, os resultados obtidos podem ajudar na elaboração de procedimentos práticos para metodologias de gerenciamento de risco, pois a lista de influências e dependências entre risco e sucesso é agora melhor conhecida, permitindo melhorias em políticas de gerenciamento de risco. / This research is about project management, especially in the context of information systems area, where there are specific characteristics and relationships among elements like : technology , business processes, change management, human behavior and subjective product specification. The rate of information system project failure remains high in comparison with other high-tech projects. The main objective of this research is to contribute to the knowledge in the area of project management, focusing in the investigation of risk factors that can influence on the perceived success of the project. One of the challenges was to define concepts and to conceive objective measures to assess the events associated with risk management and project success. Sustained in the literature and other similar researches, it was built a instrument with which several dimensions of risk and success were assessed in a sample of 180 information system projects. Each dimension was divided into classes and each class was detailed by variables composed by metric indicators in its majority. After the gathering and validation of the data sample, some statistical techniques were applied to talk over the behavior of dependencies between risk and success factors. The analysis of direction and intensity of the influence of each risk factor over each success factor has reproduced some knowledge from the literature and other researches, but the level of details that was able to get by the statistical techniques shed some light over some aspects that were unrevealed. The conclusions presented in this research can be considered by project managers who work with information technology products, more specifically those who work with systems information development or deployment . Besides, the analysis achieved in this work can help to create practical procedures for risk management methodologies, since the list of influences and dependencies of risk factor over success factors are better known, allowing improvements in a active risk management policy.
75

Comparação de rols classificatórios de tratamentos e de estimativas de componentes de variância em grupos de experimentos / Comparison of treatments classicatory rankings and of variance components estimates in experimental groups

Cássio Dessotti 28 January 2010 (has links)
As análises de grupos de experimentos, de grande importância em melhoramento genético, são indispensáveis quando se pretende investigar o comportamento de alguns tratamentos em diversos locais de interesse do pesquisador. Nestes casos, parte-se das analises de variância individuais em cada local, para o agrupamento de todos os ensaios em uma única analise. Verifica-se então a veracidade da significância da interação tratamentos versus locais - TL, sendo esta não-significativa, pode-se obter conclusões generalizados a respeito do comportamento dos tratamentos. No entanto, o grande interesse esta nos casos de interação significativa, em que dois caminhos de destaque surgem para que se conclua a analise, o primeiro, permite que se considerem os resultados e conclusões das analises individuais, com o resíduo específico de cada local, enquanto o segundo aconselha que se desdobrem os graus de liberdade relativos a tratamentos + interação significativa, visando a interpretação dos tratamentos em estudo dentro de cada um dos locais, utilizando o resíduo médio como testador. Partindo do fato de que componentes de variância são variâncias associadas aos efeitos aleatórios de um modelo matemático, que permitem quantificar a variabilidade de tais efeitos, tem-se por objetivo neste trabalho, em grupos de experimentos reais com interação TL significativa, comparar os componentes de variância obtidos nas analises individuais utilizando os quadrados médios residuais - QMRes de cada ensaio versus os obtidos pós-desdobramento da interação em questão utilizando o quadrado médio do resíduo médio - QMRM. Tal confronto será fundamentado nas estimativas de variâncias das estimativas destes componentes. Finalmente, em grupos de ensaios reais e simulados, o objetivo será voltado para a comparação de rols classificatórios de tratamentos nas analises individuais versus os rols classificatórios de tratamentos obtidos pós-desdobramento da interação em questão. A montagem destes rols será possível a partir do uso do teste de Tukey, ao nível de 5% de significância, para os cálculos das diferenças mínimas significativas - dms ora com resíduos de analises individuais, ora de conjunta. Todos os cálculos deste trabalho serão realizados no software estatístico R. / The experimental groups analysis, of great importance in genetic improvement, are essential when intends to investigate the treatments behaviour in many places from researcher interest. In these cases, starts by the individual variance analysis in each place, to the grouping of all experiments in a single analysis. Examine the truth of the signicant treatments vs. places interaction - TL, being this no-signicant, is possible to obtain generalized conclusions about the treatments behaviour. However, the interest is in the cases when signi cant interaction is found, because two eminence ways appear for the analysis conclusions, the rst one allow that the individual analysis results and conclusions be considered, with the specic residue from each place, while the second one advise, that the degrees of freedom relative to treatments + signicant interaction be unfound, looking at the interpretation of the treatments in study inside each place, using the mean residue how testator. Starting with the fact that variance components are variances associated to the aleatory eects of a mathematical model, that allow the quantifying of such eects, this work objective, in real experimental groups, with signicant interaction TL, is to compare the variance components obtained in individual analysis using the residual mean square - QMRes from each experiment against the obtained after unfolding the interaction in question using the mean residual mean square - QMRM. This confrontation will be based in variance estimations of these components estimations. Finally, in real and simulate experimental groups, the objective will be directed to the comparison of treatments classicatory rankings in individual analysis vs. the treatments classi catory rankings obtained after unfolding of the interaction in question. The construction of these rankings will be possible using the Tukey test, with 5% of signicance, for the calculation of the signicants minimum dierences - dms, a time with individual analysis residual, othertime, conjunct. All the calculations from this work will be realized in the R statistical software.
76

Comparação de rols classificatórios de tratamentos e de estimativas de componentes de variância em grupos de experimentos / Comparison of treatments classicatory rankings and of variance components estimates in experimental groups

Dessotti, Cássio 28 January 2010 (has links)
As análises de grupos de experimentos, de grande importância em melhoramento genético, são indispensáveis quando se pretende investigar o comportamento de alguns tratamentos em diversos locais de interesse do pesquisador. Nestes casos, parte-se das analises de variância individuais em cada local, para o agrupamento de todos os ensaios em uma única analise. Verifica-se então a veracidade da significância da interação tratamentos versus locais - TL, sendo esta não-significativa, pode-se obter conclusões generalizados a respeito do comportamento dos tratamentos. No entanto, o grande interesse esta nos casos de interação significativa, em que dois caminhos de destaque surgem para que se conclua a analise, o primeiro, permite que se considerem os resultados e conclusões das analises individuais, com o resíduo específico de cada local, enquanto o segundo aconselha que se desdobrem os graus de liberdade relativos a tratamentos + interação significativa, visando a interpretação dos tratamentos em estudo dentro de cada um dos locais, utilizando o resíduo médio como testador. Partindo do fato de que componentes de variância são variâncias associadas aos efeitos aleatórios de um modelo matemático, que permitem quantificar a variabilidade de tais efeitos, tem-se por objetivo neste trabalho, em grupos de experimentos reais com interação TL significativa, comparar os componentes de variância obtidos nas analises individuais utilizando os quadrados médios residuais - QMRes de cada ensaio versus os obtidos pós-desdobramento da interação em questão utilizando o quadrado médio do resíduo médio - QMRM. Tal confronto será fundamentado nas estimativas de variâncias das estimativas destes componentes. Finalmente, em grupos de ensaios reais e simulados, o objetivo será voltado para a comparação de rols classificatórios de tratamentos nas analises individuais versus os rols classificatórios de tratamentos obtidos pós-desdobramento da interação em questão. A montagem destes rols será possível a partir do uso do teste de Tukey, ao nível de 5% de significância, para os cálculos das diferenças mínimas significativas - dms ora com resíduos de analises individuais, ora de conjunta. Todos os cálculos deste trabalho serão realizados no software estatístico R. / The experimental groups analysis, of great importance in genetic improvement, are essential when intends to investigate the treatments behaviour in many places from researcher interest. In these cases, starts by the individual variance analysis in each place, to the grouping of all experiments in a single analysis. Examine the truth of the signicant treatments vs. places interaction - TL, being this no-signicant, is possible to obtain generalized conclusions about the treatments behaviour. However, the interest is in the cases when signi cant interaction is found, because two eminence ways appear for the analysis conclusions, the rst one allow that the individual analysis results and conclusions be considered, with the specic residue from each place, while the second one advise, that the degrees of freedom relative to treatments + signicant interaction be unfound, looking at the interpretation of the treatments in study inside each place, using the mean residue how testator. Starting with the fact that variance components are variances associated to the aleatory eects of a mathematical model, that allow the quantifying of such eects, this work objective, in real experimental groups, with signicant interaction TL, is to compare the variance components obtained in individual analysis using the residual mean square - QMRes from each experiment against the obtained after unfolding the interaction in question using the mean residual mean square - QMRM. This confrontation will be based in variance estimations of these components estimations. Finally, in real and simulate experimental groups, the objective will be directed to the comparison of treatments classicatory rankings in individual analysis vs. the treatments classi catory rankings obtained after unfolding of the interaction in question. The construction of these rankings will be possible using the Tukey test, with 5% of signicance, for the calculation of the signicants minimum dierences - dms, a time with individual analysis residual, othertime, conjunct. All the calculations from this work will be realized in the R statistical software.
77

Aplicação de métodos geoestatísticos para identificação de dependência espacial na análise de dados de um experimento em delineamento sistemático tipo "leque" / Application of geostatistical methods to identify the spatial dependence in the data analysis of a fan systematic design experiment

Oda, Melissa Lombardi 20 May 2005 (has links)
Os delineamentos sistemáticos são usados nas mais diversas áreas, como: florestal, horticultura, solos, etc. Na área florestal, os delineamentos sistemáticos são freqüentemente usados para estudos preliminares e têm o objetivo de testar o maior número de espaçamentos possíveis. No entanto, existem algumas limitações para a sua utilização. A primeira é o arranjo sistemático (não casualizado) das plantas, que não permite o uso das análises convencionais. A segunda é a alta sensibilidade para valores perdidos. Quando uma planta é perdida, o espaçamento das plantas vizinhas é alterado, assim esses valores não podem ser incluídos no conjunto de dados e informações consideráveis são excluídas das análises. O objetivo deste trabalho foi aplicar a metodologia geoestatística para identificação de dependência espacial em um experimento em delineamento sistemático tipo "leque", levando-se em consideração: a eliminação dos dados das plantas vizinhas aos valores perdidos e as informações de ocorrência de parcelas perdidas e o tempo que ocorreram. Os dados de volume sólido por planta utilizados neste trabalho são provenientes de um experimento de espaçamento de Eucalyptus dunnii em delineamento sistemático tipo "leque". Neste trabalho foram utilizados os dados referentes ao sexto ano, idade comercial de corte da espécie, com os seguintes procedimentos: eliminação dos dados das plantas vizinhas às plantas mortas (Modelo I); as informações de mortes das plantas foram consideradas como uma covariável no modelo (Modelo II) e além da covariável morte das plantas, também foi levado em consideração o tempo da ocorrência da morte (Modelo III). Os parâmetros do semivariograma foram estimados pelo método de máxima verossimilhança e para seleção de modelos, utilizou-se o Critério de Akaike (AIC). Os resultados obtidos permitem concluir que se identificou uma fraca dependência espacial, o que não justificaria considerá-la com a aplicação de um modelo geoestatístico. A função de correlação que apresentou melhor desempenho foi a Matérn com k = 2 para os três modelos considerados. Comparando-se esses modelos e seguindo o critério de Akaike, o modelo mais adequado foi o II, pois apresentou menor valor de AIC. / Systematic designs are utilized in many areas, such as: forestry, horticulture, soils, etc. In forestry, the systematic designs are frequently used for preliminary studies and they aim at evaluating the largest number of possible spacings. However, there are some limitations on their use. The first limitation is the systematic design (non-randomized) of plants, which does not allow the use of conventional analyses. The second is the high sensitivity to lost values. When a plant is lost, the neighboring plant spacings are altered, so these values cannot be added to the data collection, and a great sum of information is excluded from the analyses. This study aimed at applying geostatistical methods to identify the spatial dependence in the data analysis of a fan systematic design experiment, taking into account: the exclusion of neighboring plant data to the lost values and the information regarding the occurrence of lost parcels as well as the time of their occurrence. The plant solid volume data utilized in this study were taken from a fan systematic design Eucalyptus dunnii spacing study. The data utilized were referent to the sixth year, commercial age for cutting of the specie, with the following procedures exclusion of the data from a neighboring plant next to a dead tree (Model I); the information of tree mortality as covariable in the model (Model II); and the time of occurrence of tree mortality, besides the tree mortality covariable (Model III). The semivariogram parameters were estimated by the maximum likelihood method, and the model selection was done by the utilization of the Akaike's Information Criterion (AIC). It was possible to conclude from the result analyses that there is a weak spatial dependence, which does not justify neither taking it into account nor the utilization of a geostatistical model. The correlation function that showed the best performance was the Matérn, with kappa=2 for the three models considered. By the comparison of these three models and the utilization of the Akaike's Information Criterion, the most suitable model was Model II, as it showed lower AIC value.
78

Modelagem de dados contínuos censurados, inflacionados de zeros / Modeling censored continous, zero inflated

Janeiro, Vanderly 16 July 2010 (has links)
Muitos equipamentos utilizados para quantificar substâncias, como toxinas em alimentos, freqüentemente apresentam deficiências para quantificar quantidades baixas. Em tais casos, geralmente indicam a ausência da substância quando esta existe, mas está abaixo de um valor pequeno \'ksi\' predeterminado, produzindo valores iguais a zero não necessariamente verdadeiros. Em outros casos, detectam a presença da substância, mas são incapazes de quantificá-la quando a quantidade da substância está entre \'ksai\' e um valor limiar \'tau\', conhecidos. Por outro lado, quantidades acima desse valor limiar são quantificadas de forma contínua, dando origem a uma variável aleatória contínua X cujo domínio pode ser escrito como a união dos intervalos, [ómicron, \"ksai\'), [\"ksai\', \'tau\' ] e (\'tau\', ?), sendo comum o excesso de valores iguais a zero. Neste trabalho, são propostos modelos que possibilitam discriminar a probabilidade de zeros verdadeiros, como o modelo de mistura com dois componentes, sendo um degenerado em zero e outro com distribuição contínua, sendo aqui consideradas as distribuições: exponencial, de Weibull e gama. Em seguida, para cada modelo, foram observadas suas características, propostos procedimentos para estimação de seus parâmetros e avaliados seus potenciais de ajuste por meio de métodos de simulação. Finalmente, a metodologia desenvolvida foi ilustrada por meio da modelagem de medidas de contaminação com aflatoxina B1, observadas em grãos de milho, de três subamostras de um lote de milho, analisados no Laboratório de Micotoxinas do Departamento de Agroindústria, Alimentos e Nutrição da ESALQ/USP. Como conclusões, na maioria dos casos, as simulações indicaram eficiência dos métodos propostos para as estimações dos parâmetros dos modelos, principalmente para a estimativa do parâmetro \'delta\' e do valor esperado, \'Epsilon\' (Y). A modelagem das medidas de aflatoxina, por sua vez, mostrou que os modelos propostos são adequados aos dados reais, sendo que o modelo de mistura com distribuição de Weibull, entretanto, ajustou-se melhor aos dados. / Much equipment used to quantify substances, such as toxins in foods, is unable to measure low amounts. In cases where the substance exists, but in an amount below a small fixed value \'ksi\' , the equipment usually indicates that the substance is not present, producing values equal to zero. In cases where the quantity is between \'\'ksi\' and a known threshold value \'tau\', it detects the presence of the substance but is unable to measure the amount. When the substance exists in amounts above the threshold value ?, it is measure continuously, giving rise to a continuous random variable X whose domain can be written as the union of intervals, [ómicron, \"ksai\'), [\"ksai\', \'tau\' ] and (\'tau\', ?), This random variable commonly has an excess of zero values. In this work we propose models that can detect the probability of true zero, such as the mixture model with two components, one being degenerate at zero and the other with continuous distribution, where we considered the distributions: exponential, Weibull and gamma. Then, for each model, its characteristics were observed, procedures for estimating its parameters were proposed and its potential for adjustment by simulation methods was evaluated. Finally, the methodology was illustrated by modeling measures of contamination with aflatoxin B1, detected in grains of corn from three sub-samples of a batch of corn analyzed at the laboratory of of Mycotoxins, Department of Agribusiness, Food and Nutrition ESALQ/USP. In conclusion, in the majority of cases the simulations indicated that the proposed methods are efficient in estimating the parameters of the models, in particular for estimating the parameter ? and the expected value, E(Y). The modeling of measures of aflatoxin, in turn, showed that the proposed models are appropriate for the actual data, however the mixture model with a Weibull distribution fits the data best.
79

A simulação de variáveis aleatórias e os métodos Monte Carlo e Quase-Monte Carlo na quadratura multidimensional

Dornelles Filho, Adalberto Ayjara January 2000 (has links)
Monte Carlo é o nome dado de forma geral às técnicas de resolução de problemas numéricos através do uso intensivo de números aleatórios. No trato computacional, esses números não são, de fato, aleatórios, mas pseudo-aleatórios, pois são gerados por algoritmos determinísticos que, no entanto, “parecem” aleatórios, isto é, são aprovados em testes de aleatoriedade. Variáveis aleatórias com quaisquer distribuições de probabilidade são então simuladas a partir de números pseudo-aleatórios uniformemente distribuídos no intervalo (0;1) através de certas transformações. Entre as diversas aplicações do método Monte Carlo destaca-se a quadratura numérica multidimensional, que consiste essencialmente em estimar o valor médio da função integranda através do valor médio da função em pontos escolhidos de modo aleatório no interior da região de integração. Técnicas especiais de amostragem permitem a redução da variância e, em conseqüência, do erro nos valores estimados. O erro de convergência do método é, no pior caso, de ordem O(n-1/2). No entanto o uso de pontos amostrais quase-aleatórios pode levar a convergência mais rápida de ordem O(n-1). O presente trabalho descreve uma grande quantidade de algoritmos para obtenção de variáveis pseudo-aleatórias e quasealeatórias ; para a transformação de diversas distribuições de probabilidade e para quadratura multidimensional. / Monte Carlo is the name usually given to numerical problems resolution techniques by intensive use of random numbers. In computer procedures, this numbers are not, in fact, random but pseudo-random because they are generated by deterministic algorithms, but “look like” random, that is, they pass on randomness tests. Such random variables with any probability distribution are simulated on pseudo-random numbers with uniform distribution in (0;1) by certain transformations. Among a diversity of Monte Carlo methods applications, a special one is the multidimensional numeric quadrature which consists essentially of estimating tha integrand function mean value by the mean that function at random points in the integration region. Sampling techniques allow a variance reduction and hence an estimated error reduction. The error convergence order is, in the worst case, O(n-1/2). However quasi-random sampling points could bring a faster convergence order of O(n-1). The present work describes a wide quantity of algorithms for producing pseudo-random and quasi-random variables; for transforming a diversity of probability distributions, and for multidimensional quadrature.
80

A simulação de variáveis aleatórias e os métodos Monte Carlo e Quase-Monte Carlo na quadratura multidimensional

Dornelles Filho, Adalberto Ayjara January 2000 (has links)
Monte Carlo é o nome dado de forma geral às técnicas de resolução de problemas numéricos através do uso intensivo de números aleatórios. No trato computacional, esses números não são, de fato, aleatórios, mas pseudo-aleatórios, pois são gerados por algoritmos determinísticos que, no entanto, “parecem” aleatórios, isto é, são aprovados em testes de aleatoriedade. Variáveis aleatórias com quaisquer distribuições de probabilidade são então simuladas a partir de números pseudo-aleatórios uniformemente distribuídos no intervalo (0;1) através de certas transformações. Entre as diversas aplicações do método Monte Carlo destaca-se a quadratura numérica multidimensional, que consiste essencialmente em estimar o valor médio da função integranda através do valor médio da função em pontos escolhidos de modo aleatório no interior da região de integração. Técnicas especiais de amostragem permitem a redução da variância e, em conseqüência, do erro nos valores estimados. O erro de convergência do método é, no pior caso, de ordem O(n-1/2). No entanto o uso de pontos amostrais quase-aleatórios pode levar a convergência mais rápida de ordem O(n-1). O presente trabalho descreve uma grande quantidade de algoritmos para obtenção de variáveis pseudo-aleatórias e quasealeatórias ; para a transformação de diversas distribuições de probabilidade e para quadratura multidimensional. / Monte Carlo is the name usually given to numerical problems resolution techniques by intensive use of random numbers. In computer procedures, this numbers are not, in fact, random but pseudo-random because they are generated by deterministic algorithms, but “look like” random, that is, they pass on randomness tests. Such random variables with any probability distribution are simulated on pseudo-random numbers with uniform distribution in (0;1) by certain transformations. Among a diversity of Monte Carlo methods applications, a special one is the multidimensional numeric quadrature which consists essentially of estimating tha integrand function mean value by the mean that function at random points in the integration region. Sampling techniques allow a variance reduction and hence an estimated error reduction. The error convergence order is, in the worst case, O(n-1/2). However quasi-random sampling points could bring a faster convergence order of O(n-1). The present work describes a wide quantity of algorithms for producing pseudo-random and quasi-random variables; for transforming a diversity of probability distributions, and for multidimensional quadrature.

Page generated in 0.0568 seconds