• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 4
  • 1
  • Tagged with
  • 31
  • 31
  • 22
  • 14
  • 7
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Design and analysis of static windrow piles for in-house broiler litter composting

Schmidt, Amy M 07 August 2010 (has links)
In-house windrow composting of broiler litter has been studied to reduce microbial populations between flocks. Published time-temperature goals are used to determine the success of the composting process for microbial reductions. Spatial and temporal density of temperature measurement can influence the ability to determine what portion of a windrow pile has achieved specified time-temperature goals. Based on this motivation, an investigation of the heating profile in windrowed litter and the identification of the effects of spatial and temporal sampling densities on the prediction of the heating profile in windrowed broiler litter were executed. Likewise, an investigation of the effects of moisture content on heat generation during composting of broiler litter was conducted. Ultimately, the research projects were designed with the goal of determining the efficacy of windrow composting as a treatment method for reducing microbial populations in broiler litter and to produce recommendations for the implementation of future windrow temperature monitoring investigations. While past investigations have reported success of windrow composting for microbial population reductions, a lack of intense spatial and temporal temperature monitoring has likely mis-represented the pile heating profile and resultant effects on microbial populations.
2

Estudo do efeito de suavização da krigagem ordinária em diferentes distribuições estatísticas / A study of ordinary kriging smoothing effect using diferent statistics distributions

Anelise de Lima Souza 12 July 2007 (has links)
Esta dissertação apresenta os resultados da investigação quanto à eficácia do algoritmo de pós-processamento para a correção do efeito de suavização nas estimativas da krigagem ordinária. Foram consideradas três distribuições estatísticas distintas: gaussiana, lognormal e lognormal invertida. Como se sabe, dentre estas distribuições, a distribuição lognormal é a mais difícil de trabalhar, já que neste tipo de distribuição apresenta um grande número de valores baixos e um pequeno número de valores altos, sendo estes responsáveis pela grande variabilidade do conjunto de dados. Além da distribuição estatística, outros parâmetros foram considerados: a influencia do tamanho da amostra e o numero de pontos da vizinhança. Para distribuições gaussianas e lognormais invertidas o algoritmo de pós-processamento funcionou bem em todas a situações. Porém, para a distribuição lognormal, foi observada a perda de precisão global. Desta forma, aplicou-se a krigagem ordinária lognormal para este tipo de distribuição, na realidade, também foi aplicado um método recém proposto de transformada reversa de estimativas por krigagem lognormal. Esta técnica é baseada na correção do histograma das estimativas da krigagem lognormal e, então, faz-se a transformada reversa dos dados. Os resultados desta transformada reversa sempre se mostraram melhores do que os resultados da técnica clássica. Além disto, a as estimativas de krigagem lognormal se provaram superiores às estimativas por krigagem ordinária. / This dissertation presents the results of an investigation into the effectiveness of the post-processing algorithm for correcting the smoothing effect of ordinary kriging estimates. Three different statistical distributions have been considered in this study: gaussian, lognormal and inverted lognormal. As we know among these distributions, the lognormal distribution is the most difficult one to handle, because this distribution presents a great number of low values and a few high values in which these high values are responsible for the great variability of the data set. Besides statistical distribution other parameters have been considered in this study: the influence of the sample size and the number of neighbor data points as well. For gaussian and inverted lognormal distributions the post-processing algorithm worked well in all situations. However, it was observed loss of local accuracy for lognormal data. Thus, for these data the technique of ordinary lognormal kriging was applied. Actually, a recently proposed approach for backtransforming lognormal kriging estimates was also applied. This approach is based on correcting the histogram of lognormal kriging estimates and then backtransforming it to the original scale of measurement. Results of back-transformed lognormal kriging estimates were always better than the traditional approach. Furthermore, lognormal kriging estimates have provided better results than the normal kriging ones.
3

Estudo do efeito de suavização da krigagem ordinária em diferentes distribuições estatísticas / A study of ordinary kriging smoothing effect using diferent statistics distributions

Souza, Anelise de Lima 12 July 2007 (has links)
Esta dissertação apresenta os resultados da investigação quanto à eficácia do algoritmo de pós-processamento para a correção do efeito de suavização nas estimativas da krigagem ordinária. Foram consideradas três distribuições estatísticas distintas: gaussiana, lognormal e lognormal invertida. Como se sabe, dentre estas distribuições, a distribuição lognormal é a mais difícil de trabalhar, já que neste tipo de distribuição apresenta um grande número de valores baixos e um pequeno número de valores altos, sendo estes responsáveis pela grande variabilidade do conjunto de dados. Além da distribuição estatística, outros parâmetros foram considerados: a influencia do tamanho da amostra e o numero de pontos da vizinhança. Para distribuições gaussianas e lognormais invertidas o algoritmo de pós-processamento funcionou bem em todas a situações. Porém, para a distribuição lognormal, foi observada a perda de precisão global. Desta forma, aplicou-se a krigagem ordinária lognormal para este tipo de distribuição, na realidade, também foi aplicado um método recém proposto de transformada reversa de estimativas por krigagem lognormal. Esta técnica é baseada na correção do histograma das estimativas da krigagem lognormal e, então, faz-se a transformada reversa dos dados. Os resultados desta transformada reversa sempre se mostraram melhores do que os resultados da técnica clássica. Além disto, a as estimativas de krigagem lognormal se provaram superiores às estimativas por krigagem ordinária. / This dissertation presents the results of an investigation into the effectiveness of the post-processing algorithm for correcting the smoothing effect of ordinary kriging estimates. Three different statistical distributions have been considered in this study: gaussian, lognormal and inverted lognormal. As we know among these distributions, the lognormal distribution is the most difficult one to handle, because this distribution presents a great number of low values and a few high values in which these high values are responsible for the great variability of the data set. Besides statistical distribution other parameters have been considered in this study: the influence of the sample size and the number of neighbor data points as well. For gaussian and inverted lognormal distributions the post-processing algorithm worked well in all situations. However, it was observed loss of local accuracy for lognormal data. Thus, for these data the technique of ordinary lognormal kriging was applied. Actually, a recently proposed approach for backtransforming lognormal kriging estimates was also applied. This approach is based on correcting the histogram of lognormal kriging estimates and then backtransforming it to the original scale of measurement. Results of back-transformed lognormal kriging estimates were always better than the traditional approach. Furthermore, lognormal kriging estimates have provided better results than the normal kriging ones.
4

Statistical Methods for Mineral Models of Drill Cores / Statistiska Metoder för Mineralmodeller av Borrkärnor

Johansson, Björn January 2020 (has links)
In modern mining industry, new resource efficient and climate resilient methods have been gaining traction. Commissioned efforts to improve the efficiency of European mining is further helping us to such goals. Orexplore AB's X-ray technology for analyzing drill cores is currently involved in two such project. Orexplore AB wishes to incorporate geostatistics (spatial statistics) into their analyzing process in order to further extend the information gained from the mineral data. The geostatistical method implemented here is ordinary kriging which is an interpolation method that, given measured data, predicts intermediate values governed by prior covariance models. Ordinary kriging facilitates prediction of mineral concentrations on a continuous grid in 1-D up to 3-D. Intermediate values are predicted on a Gaussian process regression line, governed by prior covariances. The covariance is modeled by fitting a model to a calculated experimental variogram. Mineral concentrations are available along the lateral surface of the drill core. Ordinary kriging is implemented to sequentially predict mineral concentrations on shorter sections of the drill core, one mineral at a time. Interpolation of mineral concentrations is performed on the data considered in 1-D and 3-D. The validation is performed by calculating the corresponding density at each section that concentrations are predicted on and compare each such value to measured densities. The performance of the model is evaluated by subjective visual evaluation of the fit of the interpolation line, its smoothness, together with the variance. Moreover, the fit is tested through cross-validation using different metrics that evaluates the variance and prediction errors of different models. The results concluded that this method accurately reproduces the measured concentrations while performing well according to the above mentioned metrics, but does not outperform the measured concentrations when evaluated against the measured densities. However, the method was successful in providing information of the minerals in the drill core by producing mineral concentrations on a continuous grid. The method also produced mineral concentrations in 3-D that reproduced the measured densities well. It can be concluded that ordinary kriging implemented according to the methodology described in this report efficiently produces mineral concentrations that can be used to obtain information of the distribution of concentrations in the interior of the drill core. / I den moderna gruvindustrin har nya resurseffektiva och klimatbeständiga metoder ökat i efterfråga. Beställda projekt för att förbättra effektiviteten gällande den europeiska gruvdriften bidrar till denna effekt ytterligare. Orexplore AB:s röntgenteknologi för analys av borrkärnor är för närvarande involverad i två sådana projekt. Orexplore AB vill integrera geostatistik (spatial statistik) i sin analysprocess för att ytterligare vidga informationen från mineraldatan. Den geostatistiska metoden som implementeras här är ordinary kriging, som är en interpolationsmetod som, givet uppmätta data, skattar mellanliggande värden betingade av kovariansmodeller. Ordinary kriging tillåter skattning av mineralkoncentrationer på ett kontinuerligt nät i 1-D upp till 3-D. Mellanliggande värden skattas enligt en Gaussisk process-regressionslinje. Kovariansen modelleras genom att passa en modell till ett beräknat experimentellt variogram. Mineralkoncentrationer är tillgängliga längs borrkärnans mantelyta. Ordinary kriging implementeras för att sekventiellt skatta mineralkoncentrationer på kortare delar av borrkärnan, ett mineral i taget. Interpolering av mineralkoncentrationer utförs på datan betraktad i 1-D och 3-D. Valideringen utförs genom att utifrån de skattade koncentrationerna beräkna den motsvarande densiteten vid varje sektion som koncentrationer skattas på och jämföra varje sådant värde med uppmätta densiteter. Undersökning av modellen utförs genom subjektiv visuell utvärdering av interpolationslinjens passning av datan, dess mjukhet, tillsammans med variansen. Dessutom testas passformen genom korsvalidering med olika mätvärden som utvärderar varians- och skattningsfel för olika modeller. Slutsatsen från resultaten är att denna metod reproducerar de uppmätta koncentrationerna väl samtidigt som den presterar bra enligt de mätvärden som utvärderas, men överträffar ej de uppmätta koncentrationerna vid utvärdering mot de uppmätta densiteterna. Metoden var emellertid framgångsrik med att tillhandahålla information om mineralerna i borrkärnan genom att producera mineralkoncentrationer på ett kontinuerligt rutnät. Metoden producerade också mineralkoncentrationer i 3-D som reproducerade de uppmätta densiteterna väl. Slutsatsen dras att ordinary kriging, implementerad enligt den metod som beskrivs i denna rapport, effektivt skattar mineralkoncentrationer som kan användas för att få information om fördelningen av koncentrationer i det inre av borrkärnan.
5

Análise de sensibilidade das estimativas ao erro amostral, posicional e suas aplicações

Silva, Victor Miguel January 2015 (has links)
Desde que um depósito mineral apenas terá sua geometria e propriedades reais conhecidas após a completa extração e processamento, é necessário o emprego de modelos e estimativas ao longo da vida do projeto para seu correto planejamento. Estimativas são fortemente afetadas pela qualidade dos dados, o que torna fundamental seu controle e certificação. Tal necessidade levou à industrial mineral a adotar controles e procedimentos que meçam e garantam a qualidade da informação. Esses controles para amostragem e análises laboratoriais são baseados em valores de tolerância máxima de erros tipicamente baseada na literatura ou tidos como boas práticas, apesar de tais valores não levarem em conta a precisão e acurácia necessária em um dado projeto ou características especificas de um projeto. Nesse contexto se propõe, através da análise de sensibilidade, uma metodologia que mensure como os erros analíticos e/ou locacionais se propagam às estimativas. Assumindo a base de dados inicial como isenta de erros, outras bases são geradas pela adição de incerteza; as curvas de sensibilidades relacionam o impacto das estimativas à incerteza adicionada a cada base de dados. Tais erros são sorteados dentro de uma distribuição normal com média zero e diferentes desvios-padrões (simulando diferentes níveis de incerteza) para teores e posição espacial. O impacto é medido pela comparação das estimativas com a base se dado sem perturbação e os os modelos derivados de bases perturbadas. Os resultados são apresentandos através de perda/diluição, correlação entre blocos estimados com os dados originais e perturbados e pelo seu desvio médio. A metodologia proposta foi aplicada nos dados de Walker Lake (Nevada-USA) e parte do depósito de bauxita de Miraí (MG-Brazil). Baseado na curva de sensibilidade, pôde-se avaliar impacto na reconciliação diária da mina de Miraí, causada pela incerteza dos dados. Os resultados indicaram que o impacto de erros nas coordenadas tem um comportamento exponencial, onde erros relativos até 10% da dimensão da malha causam um baixo desvio nas estimativas. A incerteza analítica em geral é reduzida na incerteza dos valores krigados. Definindo como aceitável na mina de Miraí que 90% dos blocos devam ter um máximo de incerteza causada pelos dados de 10% para Al2O3 e recuperação mássica e de 30% para sílica reativa, a metodologia proposta definiu uma tolerância para o controle de qualidade das duplicatas de campo respectivamente de 10.9%, 9.5% e 12.5%. Os erros calculados coincidem com os 10% tipicamente sugeridos pela literatura. / Since a mineral deposit only has its exact geometry and properties known after its complete extraction and processing, it is necessary to use models and estimates throughout the life of the project for proper planning. Estimates are strongly affected by data quality; consequently, their control and certification are imperative. This leads the mineral industry to adopt controls and procedures to measure and ensure data quality. These controls used for sampling and lab analysis are based on max error tolerance intervals typically suggested in the literature, however these limits do not take into account the precision and accuracy required in a given project or in a specific mineral deposit. In this context, this dissertation proposes throughout sensitivity analysis a methodology that measures how the analytical and/or locational errors propagate to estimates. It started using an original dataset considered error free, and databases created from it by adding errors. Sensitivity curves relate the impact on block estimate due to the uncertainty added to each database. The samples errors are draw from a normal distribution with zero mean and different standard deviations (emulating different precision levels) for grades and spatial position. The impact is measure by comparing estimates based on an error-free database against the model derived from error added data sets counting blocks affected by loss/dilution, correlation between original block model versus new model with error added to the data and the block mean deviations. The methodology proposed was illustrated using the Walker Lake (Nevada-USA) dataset and part of Miraí bauxite deposit (MG-Brazil). Based on the defined sensitivity curve the impact on the daily grade reconciliation at Miraí mine caused by using a database with error added is assessed. The results indicates that the impact on grade estimation caused by data coordinates uncertainty has an exponential behavior, where relative errors below 10% of the sampling spacing cause low impact on estimated values. The kriging weighted averaging in general mostly reduces the analytical uncertainty. Defining as acceptable for Miraí Mine that 90% of blocks should have errors (caused by poor quality data) lower than 10% related to Al2O3 and for mass recovery and of 30% for reactive silica, the proposed methodology defines a quality control tolerance to field replicate respectively of 10.9%, 9.5% and 12.5%. The defined error limits coincided with the values suggested by literature at 10%.
6

Influência de modelos de dependência espacial na definição de mapas temáticos / Influence of model spatial dependence in the definition of thematic maps

Batista, Flávia Ferreira 24 July 2012 (has links)
Made available in DSpace on 2015-03-26T13:32:16Z (GMT). No. of bitstreams: 1 texto completo.pdf: 862787 bytes, checksum: b23a777918d630895ac6bf3d64e985c8 (MD5) Previous issue date: 2012-07-24 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In recent years Geostatistics has been widely used in the field of precision agriculture, this is due to being a tool to analyze the spatial variability exists in the area of agricultural production, enabling assess the need for creation of subareas or zones where they are handlings performed differently. One focus of precision agriculture is to identify management zones within the field based on the variability, and through Geostatistics is possible to produce thematic maps that assist in the establishment of management zones through adjustments of models of spatial dependence. The objective of this study was to analyze the influence of models of spatial dependence in the definition of thematic maps of management zones, using different models and different semivariogram sampling grids. To conduct the study, we analyzed simulated data generated in SAS software, where he held various structures of spatial dependence (DE) and different sampling grids (grid), with different sizes and densities of points, with a total of 9 data set simulated. To analyze the spatial dependence structure experimental semivariograms were used and adjusted three theoretical models to experimental semivariogram: exponential, spherical and Gaussian for each data set under study, according to the parameters set forth by autotune software ArcGis 9.3. Were adjusted 27 different semivariogram models using the method of ordinary kriging and through cross-validation technique checked the fit of the models semivariográficos. Thematic maps management zones were generated from the technique of kriging, and with the aid of software Idrisi was performed to compare the maps using Kappa Index of agreement, which was tested by testing their significance Z. From the analyzes, it was concluded that the model of spatial dependence does not influence the definition of thematic maps of management zones. / Nos últimos anos a Geoestatística vem sendo amplamente utilizada na área de agricultura de precisão, isso se deve ao fato de ser uma ferramenta que permite analisar a variabilidade espacial existente na área de produção agrícola, possibilitando avaliar a necessidade de criação de subáreas ou zonas onde serão realizados manejos de forma diferenciada. Um dos focos da agricultura de precisão é a identificação de zonas de manejo dentro do campo baseadas na variabilidade existente, e por meio da Geoestatística é possível produzir os mapas temáticos que auxiliam no estabelecimento das zonas de manejo através de ajustes de modelos de dependência espacial. Assim, o objetivo geral deste estudo foi analisar a influência de modelos de dependência espacial na definição de mapas temáticos de zonas de manejo, usando diferentes modelos de semivariogramas e diferentes grades de amostragem. Para a realização do estudo foram analisados dados simulados gerados no software SAS, onde se considerou diferentes estruturas de dependência espacial (DE) e diferentes grades de amostragens (grid), com diferentes tamanhos e densidades de pontos, sendo um total de 9 conjunto de dados simulados. Para a análise da estrutura de dependência espacial foram utilizados semivariogramas experimentais e ajustados três modelos teóricos ao semivariograma experimental: exponencial, esférico e gaussiano, para cada conjunto de dados em estudo, conforme os parâmetros estipulados pelo auto-ajuste do software ArcGis 9.3. Foram ajustados 27 diferentes modelos de semivariogramas através do método da krigagem ordinária e através da técnica de validação-cruzada verificados os ajustes dos modelos semivariográficos. Mapas temáticos de zonas de manejo foram gerados a partir da técnica de krigagem ordinária, e com o auxilio do software Idrisi foi realizada a comparação dos mapas através do Índice Kappa de concordância, o qual foi testado sua significância através do teste Z. A partir das análises realizadas, concluindo-se que o modelo de dependência espacial não influencia na definição de mapas temáticos de zonas de manejo.
7

[en] SPATIAL VARIABILITY OF THE GEOMECHANICAL PARAMETER RQD AT THE ORE DEPOSIT ANIMAS-PERU / [pt] VARIABILIDADE ESPACIAL DO PARÂMETRO GEOMECÂNICO RQD NO DEPÓSITO MINERAL ANIMAS-PERU

JOSE ENRIQUE GUTIERREZ RAMIREZ 26 October 2009 (has links)
[pt] Esta dissertação desenvolve um estudo sobre a aplicação das técnicas de modelagem geológica e análises geoestatísticas na avaliação da variabilidade espacial do parâmetro geotécnico (RQD) no depósito Animas – Peru. O estudo das cinco litologias presentes no depósito permitirá melhorar o conhecimento da qualidade do maciço rochoso em regiões não-amostradas. Nesta pesquisa foram empregados o método da krigagem ordinária, para estimação da variabilidade espacial, e a simulação seqüencial Gaussiana, para simulação da distribuição dos valores de RQD. Ambos os resultados foram comparados com um técnica de estimativa clássica - o método do inverso do quadrado da distância. Verificou-se que os resultados provenientes do método clássico e da krigagem ordinária são bastante semelhantes entre si, enquanto que valores produzidos pela simulação Gaussiana apresentaram acentuadas diferenças em todas as litologias analisadas. No estudo foram utilizados os programas computacionais Datamine, para modelagem geológica, e Isatis v.7 para análises geoestatísticas. / [en] This thesis investigates the application of geological modeling techniques and geostatistical methods for estimation of the spatial variability of the geotechnical parameter RQD at the ore deposit Animas - Peru. The study of five different rock layers will permit the improvement of the overall knowledge about the quality of the rock mass, mainly in the regions where the existence of experimental samples is limited or not available at all. In this research the ordinary kriging method was used for studies of spatial variability and the Gaussian sequential simulation for analysis of the distribution of RQD values throughout the rock mass. The results of both methods were compared with those calculated on basis of a classical estimation technique - the method of the inverse of the squared distances. It was concluded that the values obtained by ordinary kriging and the classical method are quite similar between themselves but the results with Gaussian simulation show significant differences in all the rock layers investigated. In this research the following computational programs were used: Datamine, for the geologic modeling, and Isatis v.7, for geostatiscal analyses.
8

Análise de sensibilidade das estimativas ao erro amostral, posicional e suas aplicações

Silva, Victor Miguel January 2015 (has links)
Desde que um depósito mineral apenas terá sua geometria e propriedades reais conhecidas após a completa extração e processamento, é necessário o emprego de modelos e estimativas ao longo da vida do projeto para seu correto planejamento. Estimativas são fortemente afetadas pela qualidade dos dados, o que torna fundamental seu controle e certificação. Tal necessidade levou à industrial mineral a adotar controles e procedimentos que meçam e garantam a qualidade da informação. Esses controles para amostragem e análises laboratoriais são baseados em valores de tolerância máxima de erros tipicamente baseada na literatura ou tidos como boas práticas, apesar de tais valores não levarem em conta a precisão e acurácia necessária em um dado projeto ou características especificas de um projeto. Nesse contexto se propõe, através da análise de sensibilidade, uma metodologia que mensure como os erros analíticos e/ou locacionais se propagam às estimativas. Assumindo a base de dados inicial como isenta de erros, outras bases são geradas pela adição de incerteza; as curvas de sensibilidades relacionam o impacto das estimativas à incerteza adicionada a cada base de dados. Tais erros são sorteados dentro de uma distribuição normal com média zero e diferentes desvios-padrões (simulando diferentes níveis de incerteza) para teores e posição espacial. O impacto é medido pela comparação das estimativas com a base se dado sem perturbação e os os modelos derivados de bases perturbadas. Os resultados são apresentandos através de perda/diluição, correlação entre blocos estimados com os dados originais e perturbados e pelo seu desvio médio. A metodologia proposta foi aplicada nos dados de Walker Lake (Nevada-USA) e parte do depósito de bauxita de Miraí (MG-Brazil). Baseado na curva de sensibilidade, pôde-se avaliar impacto na reconciliação diária da mina de Miraí, causada pela incerteza dos dados. Os resultados indicaram que o impacto de erros nas coordenadas tem um comportamento exponencial, onde erros relativos até 10% da dimensão da malha causam um baixo desvio nas estimativas. A incerteza analítica em geral é reduzida na incerteza dos valores krigados. Definindo como aceitável na mina de Miraí que 90% dos blocos devam ter um máximo de incerteza causada pelos dados de 10% para Al2O3 e recuperação mássica e de 30% para sílica reativa, a metodologia proposta definiu uma tolerância para o controle de qualidade das duplicatas de campo respectivamente de 10.9%, 9.5% e 12.5%. Os erros calculados coincidem com os 10% tipicamente sugeridos pela literatura. / Since a mineral deposit only has its exact geometry and properties known after its complete extraction and processing, it is necessary to use models and estimates throughout the life of the project for proper planning. Estimates are strongly affected by data quality; consequently, their control and certification are imperative. This leads the mineral industry to adopt controls and procedures to measure and ensure data quality. These controls used for sampling and lab analysis are based on max error tolerance intervals typically suggested in the literature, however these limits do not take into account the precision and accuracy required in a given project or in a specific mineral deposit. In this context, this dissertation proposes throughout sensitivity analysis a methodology that measures how the analytical and/or locational errors propagate to estimates. It started using an original dataset considered error free, and databases created from it by adding errors. Sensitivity curves relate the impact on block estimate due to the uncertainty added to each database. The samples errors are draw from a normal distribution with zero mean and different standard deviations (emulating different precision levels) for grades and spatial position. The impact is measure by comparing estimates based on an error-free database against the model derived from error added data sets counting blocks affected by loss/dilution, correlation between original block model versus new model with error added to the data and the block mean deviations. The methodology proposed was illustrated using the Walker Lake (Nevada-USA) dataset and part of Miraí bauxite deposit (MG-Brazil). Based on the defined sensitivity curve the impact on the daily grade reconciliation at Miraí mine caused by using a database with error added is assessed. The results indicates that the impact on grade estimation caused by data coordinates uncertainty has an exponential behavior, where relative errors below 10% of the sampling spacing cause low impact on estimated values. The kriging weighted averaging in general mostly reduces the analytical uncertainty. Defining as acceptable for Miraí Mine that 90% of blocks should have errors (caused by poor quality data) lower than 10% related to Al2O3 and for mass recovery and of 30% for reactive silica, the proposed methodology defines a quality control tolerance to field replicate respectively of 10.9%, 9.5% and 12.5%. The defined error limits coincided with the values suggested by literature at 10%.
9

Análise de sensibilidade das estimativas ao erro amostral, posicional e suas aplicações

Silva, Victor Miguel January 2015 (has links)
Desde que um depósito mineral apenas terá sua geometria e propriedades reais conhecidas após a completa extração e processamento, é necessário o emprego de modelos e estimativas ao longo da vida do projeto para seu correto planejamento. Estimativas são fortemente afetadas pela qualidade dos dados, o que torna fundamental seu controle e certificação. Tal necessidade levou à industrial mineral a adotar controles e procedimentos que meçam e garantam a qualidade da informação. Esses controles para amostragem e análises laboratoriais são baseados em valores de tolerância máxima de erros tipicamente baseada na literatura ou tidos como boas práticas, apesar de tais valores não levarem em conta a precisão e acurácia necessária em um dado projeto ou características especificas de um projeto. Nesse contexto se propõe, através da análise de sensibilidade, uma metodologia que mensure como os erros analíticos e/ou locacionais se propagam às estimativas. Assumindo a base de dados inicial como isenta de erros, outras bases são geradas pela adição de incerteza; as curvas de sensibilidades relacionam o impacto das estimativas à incerteza adicionada a cada base de dados. Tais erros são sorteados dentro de uma distribuição normal com média zero e diferentes desvios-padrões (simulando diferentes níveis de incerteza) para teores e posição espacial. O impacto é medido pela comparação das estimativas com a base se dado sem perturbação e os os modelos derivados de bases perturbadas. Os resultados são apresentandos através de perda/diluição, correlação entre blocos estimados com os dados originais e perturbados e pelo seu desvio médio. A metodologia proposta foi aplicada nos dados de Walker Lake (Nevada-USA) e parte do depósito de bauxita de Miraí (MG-Brazil). Baseado na curva de sensibilidade, pôde-se avaliar impacto na reconciliação diária da mina de Miraí, causada pela incerteza dos dados. Os resultados indicaram que o impacto de erros nas coordenadas tem um comportamento exponencial, onde erros relativos até 10% da dimensão da malha causam um baixo desvio nas estimativas. A incerteza analítica em geral é reduzida na incerteza dos valores krigados. Definindo como aceitável na mina de Miraí que 90% dos blocos devam ter um máximo de incerteza causada pelos dados de 10% para Al2O3 e recuperação mássica e de 30% para sílica reativa, a metodologia proposta definiu uma tolerância para o controle de qualidade das duplicatas de campo respectivamente de 10.9%, 9.5% e 12.5%. Os erros calculados coincidem com os 10% tipicamente sugeridos pela literatura. / Since a mineral deposit only has its exact geometry and properties known after its complete extraction and processing, it is necessary to use models and estimates throughout the life of the project for proper planning. Estimates are strongly affected by data quality; consequently, their control and certification are imperative. This leads the mineral industry to adopt controls and procedures to measure and ensure data quality. These controls used for sampling and lab analysis are based on max error tolerance intervals typically suggested in the literature, however these limits do not take into account the precision and accuracy required in a given project or in a specific mineral deposit. In this context, this dissertation proposes throughout sensitivity analysis a methodology that measures how the analytical and/or locational errors propagate to estimates. It started using an original dataset considered error free, and databases created from it by adding errors. Sensitivity curves relate the impact on block estimate due to the uncertainty added to each database. The samples errors are draw from a normal distribution with zero mean and different standard deviations (emulating different precision levels) for grades and spatial position. The impact is measure by comparing estimates based on an error-free database against the model derived from error added data sets counting blocks affected by loss/dilution, correlation between original block model versus new model with error added to the data and the block mean deviations. The methodology proposed was illustrated using the Walker Lake (Nevada-USA) dataset and part of Miraí bauxite deposit (MG-Brazil). Based on the defined sensitivity curve the impact on the daily grade reconciliation at Miraí mine caused by using a database with error added is assessed. The results indicates that the impact on grade estimation caused by data coordinates uncertainty has an exponential behavior, where relative errors below 10% of the sampling spacing cause low impact on estimated values. The kriging weighted averaging in general mostly reduces the analytical uncertainty. Defining as acceptable for Miraí Mine that 90% of blocks should have errors (caused by poor quality data) lower than 10% related to Al2O3 and for mass recovery and of 30% for reactive silica, the proposed methodology defines a quality control tolerance to field replicate respectively of 10.9%, 9.5% and 12.5%. The defined error limits coincided with the values suggested by literature at 10%.
10

[en] 3D ROCK MASS GEOMECHANICAL MODELING TO EXCAVATED SLOPE BI-DIMENSIONAL STABILITY ANALYSIS AT AHE-SIMPLÍCIO POWER HOUSE / [pt] MODELAGEM GEOMECÂNICA TRIDIMENSIONAL DE MACIÇOS ROCHOSOS PARA ANÁLISE BIDIMENSIONAL DA ESTABILIDADE DOS TALUDES DE ESCAVAÇÃO DA CASA DE FORÇA DO AHE-SIMPLÍCIO

02 December 2008 (has links)
[pt] Na engenharia geotécnica, o conhecimento das propriedades geomecânicas de subsuperfície é fundamental aos cálculos de estabilidade. Na prática cotidiana, a estimativa dessa distribuição é realizada pelo geólogo/geotécnico responsável, que traça seções geológico- geotécnicas em função de sua experiência e da observação dos dados das investigações de campo e laboratório. Tais estimativas bidimensionais, porém, não contemplam a distribuição espacial. Assim, o objetivo deste trabalho é enriquecer a compreensão global do maciço com a previsão da distribuição tridimensional dessas propriedades. Utilizou-se o modelador geológico PETREL(TM) para a estimativa geoestatística da variação espacial dos valores de RMR e grau de fraturamento ao longo do maciço rochoso destinado à implantação da casa de força do Aproveitamento Hidrelétrico de Simplício. Essa distribuição foi estimada em função da disposição dos dados ao longo dos furos de sondagem localizados espacialmente no modelo. Também foi lançada a geometria da futura superfície de escavação, para que se pudesse avaliar qual a seção crítica de qualidade do maciço em relação aos taludes de corte. Essa seção foi então extraída do modelo com a distribuição ponto a ponto do valor de RMR, de onde foram obtidos os parâmetros de resistência c e Ø para a análise de estabilidade. Analisou-se então a estabilidade desse talude em um programa que permite essa variação espacial de parâmetros de resistência e, em paralelo também foram realizadas as análises convencionais de estabilidade de taludes rochosos, de forma a apresentar a importância da modelagem tridimensional para tal estudo. / [en] In geotechnical engineering, the knowledge of geomechanical subsurface properties is fundamental to stability analyses. The usual practice is that a geologist/geotechnical engineer does this distribution estimate. The professional makes some geologic-geotechnical sections based on his/her experience and by the observation of field/laboratory investigations data. But these 2D sections cannot take spatial distribution. To solve this problem and provide a better global comprehension of rock mass, this work presents a study of 3D property distribution. The geological modeler PETREL(TM) has been used to do a geostatistical estimate of RMR and fracture density spatial variety at the rock mass where the AHE Simplício`s power house will be installed. This distribution has been estimated based on data linked to the boreholes, spatially arranged at the model. The geometry of the future excavated surface was introduced in the model. The purpose was to carry out a study to find the critical quality section of the model related to the excavated slopes. This section was extracted with its RMR value distribution. Before the stability analysis, the resistance parameters c and Ø were calculated to every point on this section from the RMR correlations. The slope stability of the critical section was calculated in a program where the resistance parameters can vary point by point. The conventional rock slope stability analysis has been done too. At the end of the study, the first analysis was compared against the last one, proving the importance of the subsurface tridimensional modeling.

Page generated in 0.0869 seconds