Spelling suggestions: "subject:"[een] LA CONDITIONAL"" "subject:"[enn] LA CONDITIONAL""
311 |
Métodos para estimar prevalências ajustadasBarbieri, Natália Bordin January 2016 (has links)
Objetivo: Apresentar e discutir métodos para estimar prevalências ajustadas em pesquisas clínicas e epidemiológicas, bem como desenvolver rotinas computacionais em SAS e R. Métodos: No contexto de estudo transversal, foi simulada uma amostra de 2.000 observações independentes, considerando o desfecho dicotômico diabetes, sexo como a variável de exposição e idade como variável de ajuste. As estimativas de prevalências ajustadas (IC 95%) foram estimadas pelos métodos de predição condicional e marginal, utilizando as rotinas desenvolvidas em SAS e R. O método Delta foi usado para construir os intervalos de confiança. Os resultados foram comparados com aqueles do SUDAAN (SAS-Callable), Stata e a macro %ADJ_PROP (SAS). Resultados: No exemplo simulado, 68,2% são do sexo feminino e a idade média (DP) foi 57,6 (5,0) anos, sendo 54,2 (3,9) anos em homens e 59,2 (4,6) anos em mulheres. A estimativa da prevalência global do desfecho foi de 25,3% (IC 95%:23,4-27,3); sendo 13,8% (IC 95%:11,7-16,7) e 30,7% (IC 95%:28,3-33,2), respectivamente para homens e mulheres. As estimativas de prevalências ajustadas por idade, por meio do método de predição condicional, foram de 19,6% (IC 95%:16,2-23,6) para homens, e 23,6% (IC 95%:21,2-26,1) para mulheres. Pelo método de predição marginal, as estimativas foram de 22,4% (IC 95%:18,7-26,5) para homens, e 26,3% (IC 95%:24,1-28,6) para mulheres. Conclusão: A discrepância entre as estimativas não ajustadas é devida ao confundimento pela idade. Estimativas livres de confundimento podem ser obtidas por meio das prevalências ajustadas pela idade. No entanto, a estimativa pelo método de predição condicional não engloba a prevalência global. Em virtude disso, o método de predição marginal é, geralmente, mais adequado. A rotina desenvolvida na versão para R é uma alternativa aos softwares comerciais. / Objective: To present and discuss methods to estimate adjusted prevalences for clinical and epidemiological research, and develop computational routines in SAS and R. Methods: In the context of cross-sectional study, it was simulated a sample of 2,000 independent observations, considering the dichotomous outcome diabetes, sex as the exposure variable and age as an adjustment variable. Adjusted prevalences were estimated by the conditional and marginal methods, using routines developed in SAS and R. Confidence intervals were constructed using the Delta method. The results were compared with those of the SUDAAN (SAS-callable), Stata and macro %ADJ_PROP (SAS). Results: In simulated example, 68.2% are female and the mean (SD) age was 57.6 (5.00) years old, being that 54.2 (3.94) years for men and 59.2 (4.60) years in women. The estimated global prevalence of outcome was 25.3% (CI 95%: 23.4-27.3) and 13.8% (CI 95%: 11.7-16.7) and 30.7% (CI 95%: 28.3-33.2), respectively for men and women. Estimates of adjusted prevalence for age, through the conditional method, were 19.6% (CI 95%: 16.2-23.6) for men, and 23.6% (CI 95%: 21,2-26.1) for women. For marginal method, the estimates were 22.4% (CI 95%: 18.7-26.5) for men and 26.3% (CI 95%: 24.1-28.6) for women. Conclusion: The observed discrepancy in estimates by sex, unadjusted, can be attributed to confounding due to difference in age distribution between sexes. Comparable estimates (without confounding) of the prevalences can be obtained through prevalence adjusted for age. However, the estimate for the conditional method does not comprise the global prevalence. As a result, the marginal method is in general more suitable. The developed routines can be useful for estimating adjusted prevalences, particularly the R version (an alternative to commercial software).
|
312 |
Incorporação da variabilidade dos teores para análise de risco de recursos minerais e sequenciamento de lavraDiedrich, Cássio January 2012 (has links)
A indústria de mineração investiga continuamente processos de reconciliação e técnicas adequadas para mapear possíveis riscos na recuperação do minério e no planejamento de lavra. Um estudo de caso em uma mina de cobre brasileira investiga a adequação do uso de teores simulados para a definição de áreas de risco que afetam o planejamento mineiro e as reservas minerais definidas. Simulações condicionais foram usadas para derivar múltiplos modelos de teores de cobre dentro de um típico corpo de minério do depósito e esses modelos foram comparados com os dados reais de produção (reconciliação). A comparação permitiu uma melhor compreensão sobre a variabilidade da qualidade e ajudou na definição de um plano de produção mais consistente. Com os intervalos de valores provenientes das simulações foi possível mapear importantes áreas de incerteza que afetam o plano de lavra. Análises de risco foram conduzidas para a definição da cava final através da comparação do limite previsto pela estimativa por krigagem ordinária e as cavas resultantes dos modelos simulados de teor de cobre, sendo possível avaliar os impactos operacionais nos principais fatores econômicos (valor presente líquido e fluxo de caixa descontado). Várias cavas finais foram geradas para vários modelos de blocos simulados, comparando-se com a cava anteriormente planejada através da utilização do modelo de blocos produzido pela krigagem ordinária. Além disso, foi definida uma escala de risco utilizando os modelos condicionalmente simulados e os valores estimados pela krigagem (comumente utilizados como referência para definição do orçamento e da alimentação de metal no moinho) a fim de minimizar as variações dos teores. Estas medidas se propõem a reduzir o risco no cumprimento das metas de produção de metal no planejamento de lavra. Esta abordagem, considerando o risco durante o sequenciamento de lavra, foi utilizada no plano de produção anual da mina e comparada com o realizado no período e com a abordagem tradicionalmente aplicada. Os resultados evidenciaram possíveis riscos associados com o limite da cava final operacional e demonstraram os benefícios do uso de análise de risco como uma ferramenta para visualizar e analisar os limites de cava final e planejamento de lavra, ajudando a tomar melhores decisões estratégicas no gerenciamento da mina referente aos fatores técnicos e indicadores econômicos. / Mining industry continuously investigates proper reconciliation procedures and techniques for mapping possible risks in ore recovery and mine planning. A case study at a Brazilian copper mine investigates the adequacy of using simulated grades for defining high risk areas affecting mine planning and the defined mineral reserves. Conditional simulations were used to derive multiple copper grade models within a typical ore-body of the deposit and compared these models against the real production data (reconciliation). The comparison allowed a better understanding of grade variability and helped in defining a more consistent mine plan. The range of values derived from the simulations mapped areas of significant uncertainty affecting the pushback’s plan. Risk analysis were conducted for the final pit definition by comparing the projected final pit limit and mining sequence against the simulated models of copper grade, assessing the operational impacts on key economical factors (mine net present value, discounted cash flow). Several final pit limits were generated for various simulated grade block models and compared to the previously pit planned using the ordinary kriging grade block model. Also, it was defined a risk scale using the conditional simulated models and the ordinary kriged values (commonly used for budget and mill feed reference) in order to minimize grade variations ensuring less risk on completion of the metal production goals on mine planning. This approach considering the risk for the mining sequencing was used on the annual mining plan and compared to the real production and to the traditional approach. The results highlighted possible risks associated with the operational pit limit and demonstrated the benefits of using risk analysis as a tool to preview and review the final pit limits and mine planning, helping to make better strategic decisions by the copper mine management related to the technical factors and economical indicators.
|
313 |
Extração de informações de conferências em páginas webGarcia, Cássio Alan January 2017 (has links)
A escolha da conferência adequada para o envio de um artigo é uma tarefa que depende de diversos fatores: (i) o tema do trabalho deve estar entre os temas de interesse do evento; (ii) o prazo de submissão do evento deve ser compatível com tempo necessário para a escrita do artigo; (iii) localização da conferência e valores de inscrição são levados em consideração; e (iv) a qualidade da conferência (Qualis) avaliada pela CAPES. Esses fatores aliados à existência de milhares de conferências tornam a busca pelo evento adequado bastante demorada, em especial quando se está pesquisando em uma área nova. A fim de auxiliar os pesquisadores na busca de conferências, o trabalho aqui desenvolvido apresenta um método para a coleta e extração de dados de sites de conferências. Essa é uma tarefa desafiadora, principalmente porque cada conferência possui seu próprio site, com diferentes layouts. O presente trabalho apresenta um método chamado CONFTRACKER que combina a identificação de URLs de conferências da Tabela Qualis à identificação de deadlines a partir de seus sites. A extração das informações é realizada independente da conferência, do layout do site e da forma como são apresentadas as datas (formatação e rótulos). Para avaliar o método proposto, foram realizados experimentos com dados reais de conferências da Ciência da Computação. Os resultados mostraram que CONFTRACKER obteve resultados significativamente melhores em relação a um baseline baseado na posição entre rótulos e datas. Por fim, o processo de extração é executado para todas as conferências da Tabela Qualis e os dados coletados populam uma base de dados que pode ser consultada através de uma interface online. / Choosing the most suitable conference to submit a paper is a task that depends on various factors: (i) the topic of the paper needs to be among the topics of interest of the conference; (ii) submission deadlines need to be compatible with the necessary time for paper writing; (iii) conference location and registration costs; and (iv) the quality or impact of the conference. These factors allied to the existence of thousands of conferences, make the search of the right event very time consuming, especially when researching in a new area. Intending to help researchers finding conferences, this work presents a method developed to retrieve and extract data from conference web sites. Our method combines the identification of conference URL and deadline extraction. This is a challenging task as each web site has its own layout. Here, we propose CONFTRACKER, which combines the identification of the URLs of conferences listed in the Qualis Table and the extraction of their deadlines. Information extraction is carried out independent from the page’s layout and how the dates are presented. To evaluate our proposed method, we carried out experiments with real web data from Computer Science conferences. The results show that CONFTRACKER outperformed a baseline method based on the position of labels and dates. Finaly, the extracted data is stored in a database to be searched with an online tool.
|
314 |
Vliv kondičního cvičení na změnu somatotypu\\ / The Influence of Conditional Training to the Change of Somatotype\\MÜHLSTEIN, Marek January 2008 (has links)
The aim of this thesis was to monitor the influence of conditional training in fitness centre on the change of somatotype. The research period took six months and the research file consisted of six trainees. There were entrance and exit anthropometric measurings done with each of the trainees. The theoretical part deals with the history of body building, its effect on human body, problem of nutririon, and other interesting things in this field. The research part evaluates the somatic changes of each participant. The results were processed into charts and graphs and they are commented in the chapter discussion at the final part of my thesis.
|
315 |
A Comparison of DIMTEST and Generalized Dimensionality Discrepancy Approaches to Assessing Dimensionality in Item Response TheoryJanuary 2013 (has links)
abstract: Dimensionality assessment is an important component of evaluating item response data. Existing approaches to evaluating common assumptions of unidimensionality, such as DIMTEST (Nandakumar & Stout, 1993; Stout, 1987; Stout, Froelich, & Gao, 2001), have been shown to work well under large-scale assessment conditions (e.g., large sample sizes and item pools; see e.g., Froelich & Habing, 2007). It remains to be seen how such procedures perform in the context of small-scale assessments characterized by relatively small sample sizes and/or short tests. The fact that some procedures come with minimum allowable values for characteristics of the data, such as the number of items, may even render them unusable for some small-scale assessments. Other measures designed to assess dimensionality do not come with such limitations and, as such, may perform better under conditions that do not lend themselves to evaluation via statistics that rely on asymptotic theory. The current work aimed to evaluate the performance of one such metric, the standardized generalized dimensionality discrepancy measure (SGDDM; Levy & Svetina, 2011; Levy, Xu, Yel, & Svetina, 2012), under both large- and small-scale testing conditions. A Monte Carlo study was conducted to compare the performance of DIMTEST and the SGDDM statistic in terms of evaluating assumptions of unidimensionality in item response data under a variety of conditions, with an emphasis on the examination of these procedures in small-scale assessments. Similar to previous research, increases in either test length or sample size resulted in increased power. The DIMTEST procedure appeared to be a conservative test of the null hypothesis of unidimensionality. The SGDDM statistic exhibited rejection rates near the nominal rate of .05 under unidimensional conditions, though the reliability of these results may have been less than optimal due to high sampling variability resulting from a relatively limited number of replications. Power values were at or near 1.0 for many of the multidimensional conditions. It was only when the sample size was reduced to N = 100 that the two approaches diverged in performance. Results suggested that both procedures may be appropriate for sample sizes as low as N = 250 and tests as short as J = 12 (SGDDM) or J = 19 (DIMTEST). When used as a diagnostic tool, SGDDM may be appropriate with as few as N = 100 cases combined with J = 12 items. The study was somewhat limited in that it did not include any complex factorial designs, nor were the strength of item discrimination parameters or correlation between factors manipulated. It is recommended that further research be conducted with the inclusion of these factors, as well as an increase in the number of replications when using the SGDDM procedure. / Dissertation/Thesis / M.A. Educational Psychology 2013
|
316 |
Portfolio efficiency tests with conditioning information using empirical likelihood estimation / Testes de eficiência com o uso de informação condicional em portfólios com estimação por verossimilhança empíricaCaio Augusto Vigo Pereira 30 March 2016 (has links)
We evaluate the use of Generalized Empirical Likelihood (GEL) estimators in portfolios efficiency tests for asset pricing models in the presence of conditional information. Estimators from GEL family presents some optimal statistical properties, such as robustness to misspecification and better properties in finite samples. Unlike GMM, the bias for GEL estimators do not increase as more moment conditions are included, which is expected in conditional efficiency analysis. We found some evidences that estimators from GEL class really performs differently in small samples, where efficiency tests using GEL generate lower estimates compared to tests using the standard approach with GMM. With Monte Carlo experiments we see that GEL has better performance when distortions are present in data, especially under heavy tails and Gaussian shocks. / Neste estudo avaliamos o uso de estimadores Generalized Empirical Likelihood (GEL) em testes de eficiência de portfólios para modelos apreçamento de ativos na presença de informação condicional. Estimadores da família GEL apresentam algumas propriedades estatísticas ótimas, tais como robustez à má especificação e melhores propriedades em amostras finitas. Diferentemente do GMM, o viés dos estimadores GEL não aumenta conforme se incluem mais condições de momentos, o que é esperado na análise de eficiência condicional. Encontramos algumas evidências de que os estimadores da classe GEL realmente performam diferentemente em amostras finitas, em que testes de eficiência com o uso do GEL geram estimativas menores comparadas aos testes com o uso da abordagem padrão com GMM. Através dos experimentos de Monte Carlo vemos que o GEL possui melhor performance quando distorções estão presentes nos dados, especialmente sob heavy tails e choques Gaussianos.
|
317 |
Aplicação do CAPM (Capital Asset Pricing Model) condicional por meio de métodos não-paramétricos para a economia brasileira: um estudo empírico do período 2002-2009 / Application of conditional CAPM (Capital Asset Pricing Model) using nonparametrics methods for the Brazilian economy: an empirical study from 2002-2009Marcela Monteiro Galeno 04 October 2010 (has links)
Essa dissertação procura analisar se as variações dos retornos de carteiras setoriais formadas por ações do Índice teórico da Bolsa de Valores de São Paulo (Ibovespa), do primeiro quadrimestre de 2010, podem ser explicadas pelo CAPM condicional não-paramétrico proposto por Wang (2002) e também por quatro variáveis de informação disponíveis aos investidores: (i) percentual de variação do nível de produção industrial brasileira; (ii) percentual de variação do monetário agregado M4; (iii) percentual de variação da inflação representada pelo Índice de Preços ao Consumidor Amplo (IPCA); e (iv) percentual de variação da taxa de câmbio real-dólar, obtida pela cotação do dólar PTAX. O estudo compreendeu as ações listadas na Bolsa de Valores de São Paulo no período de janeiro de 2002 a dezembro de 2009. Utilizou-se a metodologia de teste desenvolvida por Wang (2002) e replicada para o contexto mexicano por Castillo-Spíndola (2006). Foram utilizados os excessos de retornos mensais para as ações, carteiras e prêmio de mercado. Ainda, para estimar a influência das variáveis de informação, foram calculados seus respectivos percentuais de variação mensal, para o período de janeiro de 2002 a novembro de 2009. A fim de validar a aplicação do CAPM condicional não-paramétrico para o mercado acionário brasileiro, foram estimados os diversos parâmetros do modelo e testada sua validade estatística para cada variável de informação avaliando-se o p-value. Os resultados observados indicam que o modelo condicional não-paramétrico é relevante na explicação dos retornos das carteiras da amostra considerada para duas das quatro variáveis testadas, M4 e dólar PTAX. / This dissertation seeks to analyze if the variations of returns from sector portfolios, formed by shares of the São Paulo Stock Exchange Index (Ibovespa), in the first four months of 2010, could be explained by the nonparametric conditional Capital Asset Pricing Model (CAPM), suggested by Wang (2002), and also by four variables of information available to the investors: (i) percentage variation of the Brazilian industrial production level; (ii) percentage variation of broad money supply M4; (iii) percentage variation of the inflation represented by the Índice de Preços ao Consumidor Amplo (IPCA); and (iv) percentage variation in the real-dollar exchange rate, obtained by PTAX dollar quotation. This study comprised the shares listed in São Paulo Stock Exchange throughout January 2002 to December 2009. The test methodology developed by Wang (2002) and retorted to the Mexican context by Castillo-Spíndola (2006) was used. The excess of monthly returns for the shares, portfolios, and market premium were used. Still, aiming to estimate the influence of information variables, their monthly percentage variations were calculated for the period from January 2002 to November 2009. In order to validate the nonparametric conditional CAPM application for the Brazilian stock market, the models several parameters were estimated and its statistic validity was tested for each information variable, evaluating the p-value. The observed results indicate that the nonparametric conditional model is relevant in explaining the portfolios returns of the sample considered for two among the four tested variables, M4 and PTAX dollar.
|
318 |
DCE: the dynamic conditional execution in a multipath control independent architecture / DCE: execução dinâmica condicional em uma arquitetura de múltiplos fluxos com independência de controleSantos, Rafael Ramos dos January 2003 (has links)
Esta tese apresenta DCE, ou Execução Dinâmica Condicional, como uma alternativa para reduzir o custo da previsão incorreta de desvios. A idéia básica do modelo apresentado é buscar e executar todos os caminhos de desvios que obedecem à certas restrições no que diz respeito a complexidade e tamanho. Como resultado, tem-se um número menor de desvios sendo previstos e consequentemente um número menor de desvios previstos incorretamente. DCE busca todos os caminhos dos desvios selecionados evitando quebras no fluxo de busca quando estes desvios são buscados. Os caminhos buscados dos desvios selecionados são então executados mas somente o caminho correto é completado. Nesta tese nós propomos uma arquitetura para executar múltiplos caminhos dos desvios selecionados. A seleção dos desvios ocorre baseada no tamanho do desvio e em outras condições. A seleção de desvios simples e complexos permite a predicação dinâmica destes desvios sem a necessidade da existência de um conjunto específico de instruções nem otimizações especiais por parte do compilador. Além disso, é proposta também uma técnica para reduzir a sobrecarga gerada pela execução dos múltiplos caminhos dos desvios selecionados. O desempenho alcançado atinge níveis de até 12% quando um previsor de desvios Local é usado no DCE e um previsor Global é usado na máquina de referência. Quando ambas as máquinas empregam previsão Local, há um aumento de desempenho da ordem de 3-3.5%. / This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.
|
319 |
Reusing values in a dynamic conditional execution architecture / Reusando Valores em uma Arquitetura com Execução Condicional DinâmicaSantos, Tatiana Gadelha Serra dos January 2004 (has links)
A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho. / The Dynamic Conditional Execution (DCE) is an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a consequence, a smaller number of predictions is performed, and therefore, a lower number branches is mispredicted. Nevertheless, as other multipath solutions, DCE requires a more complex control engine. In a DCE architecture, one may observe that several replicas of the same instruction are dispatched to the functional units, blocking resources that might be used by other instructions. Those replicas are produced after the join point of the paths and are required to guarantee the correct semantic among data dependent instructions. Moreover, DCE continues producing replicas until the branch that generated the paths is resolved. Thus, a whole section of code may be replicated, harming performance. A natural alternative to this problem is the attempt to reuse those replicated sections, namely the replicated traces. The goal of this work is to analyze and evaluate the effectiveness of value reuse in DCE architecture. As it will be presented, the principIe of reuse, in different granularities, can reduce effectively the replica problem and lead to performance improvements.
|
320 |
Incorporação da variabilidade dos teores para análise de risco de recursos minerais e sequenciamento de lavraDiedrich, Cássio January 2012 (has links)
A indústria de mineração investiga continuamente processos de reconciliação e técnicas adequadas para mapear possíveis riscos na recuperação do minério e no planejamento de lavra. Um estudo de caso em uma mina de cobre brasileira investiga a adequação do uso de teores simulados para a definição de áreas de risco que afetam o planejamento mineiro e as reservas minerais definidas. Simulações condicionais foram usadas para derivar múltiplos modelos de teores de cobre dentro de um típico corpo de minério do depósito e esses modelos foram comparados com os dados reais de produção (reconciliação). A comparação permitiu uma melhor compreensão sobre a variabilidade da qualidade e ajudou na definição de um plano de produção mais consistente. Com os intervalos de valores provenientes das simulações foi possível mapear importantes áreas de incerteza que afetam o plano de lavra. Análises de risco foram conduzidas para a definição da cava final através da comparação do limite previsto pela estimativa por krigagem ordinária e as cavas resultantes dos modelos simulados de teor de cobre, sendo possível avaliar os impactos operacionais nos principais fatores econômicos (valor presente líquido e fluxo de caixa descontado). Várias cavas finais foram geradas para vários modelos de blocos simulados, comparando-se com a cava anteriormente planejada através da utilização do modelo de blocos produzido pela krigagem ordinária. Além disso, foi definida uma escala de risco utilizando os modelos condicionalmente simulados e os valores estimados pela krigagem (comumente utilizados como referência para definição do orçamento e da alimentação de metal no moinho) a fim de minimizar as variações dos teores. Estas medidas se propõem a reduzir o risco no cumprimento das metas de produção de metal no planejamento de lavra. Esta abordagem, considerando o risco durante o sequenciamento de lavra, foi utilizada no plano de produção anual da mina e comparada com o realizado no período e com a abordagem tradicionalmente aplicada. Os resultados evidenciaram possíveis riscos associados com o limite da cava final operacional e demonstraram os benefícios do uso de análise de risco como uma ferramenta para visualizar e analisar os limites de cava final e planejamento de lavra, ajudando a tomar melhores decisões estratégicas no gerenciamento da mina referente aos fatores técnicos e indicadores econômicos. / Mining industry continuously investigates proper reconciliation procedures and techniques for mapping possible risks in ore recovery and mine planning. A case study at a Brazilian copper mine investigates the adequacy of using simulated grades for defining high risk areas affecting mine planning and the defined mineral reserves. Conditional simulations were used to derive multiple copper grade models within a typical ore-body of the deposit and compared these models against the real production data (reconciliation). The comparison allowed a better understanding of grade variability and helped in defining a more consistent mine plan. The range of values derived from the simulations mapped areas of significant uncertainty affecting the pushback’s plan. Risk analysis were conducted for the final pit definition by comparing the projected final pit limit and mining sequence against the simulated models of copper grade, assessing the operational impacts on key economical factors (mine net present value, discounted cash flow). Several final pit limits were generated for various simulated grade block models and compared to the previously pit planned using the ordinary kriging grade block model. Also, it was defined a risk scale using the conditional simulated models and the ordinary kriged values (commonly used for budget and mill feed reference) in order to minimize grade variations ensuring less risk on completion of the metal production goals on mine planning. This approach considering the risk for the mining sequencing was used on the annual mining plan and compared to the real production and to the traditional approach. The results highlighted possible risks associated with the operational pit limit and demonstrated the benefits of using risk analysis as a tool to preview and review the final pit limits and mine planning, helping to make better strategic decisions by the copper mine management related to the technical factors and economical indicators.
|
Page generated in 0.0699 seconds