Spelling suggestions: "subject:"métododos estatístico"" "subject:"métododos estatística""
131 |
Adsorção sequencial unidimensional: Modelos para automontagem de moléculas / Unidimensional sequential adsorption: Models for self-assembly of molecules.Melo, Alexandre Martins 15 August 2005 (has links)
Neste trabalho estudamos deposição de partículas em redes unidimensionais, com uma abordagem estatística a partir de modelos como absorção sequencial aleatória (RSA) e cooperativa (CSA). O objetivo é a simulação de formação de monocamadas oligoméricas automontadas em substratos, que se justifica devido aos recentes avanços, por um lado, na área experimental, na formação de SAMs (self-assembled monolayers) e produção de nanoestruturas e, por um lado, na área teórica, no desenvolvimento de diversos modelos estocásticos para processos de adsorção sequencial. Introduzimos o modelo clássico de adsorção sequencial aleatória, a nomenclatura utilizada, e estudamos algumas de suas características. Analisamos a fração da rede que permanece vazia após ser atingida a saturação, para oligômeros formados por um número K de unidades. Em seguida, estudamos a cinética de um processo RSA, primeiro para o caso de monômeros, depois para dímeros, e então para oligômeros maiores. A estrutura da camada para o caso de dímeros é examinada a partir da distribuição de tamanhos de grãos (número de K-meros adjacentes), e da função de correlação. Os dados obtidos nas nossas simulações de Monte Carlo são comparados com resultados de modelos estocásticos existentes na literatura. A partir desse ponto, estudamos variações do processo de RSA simples. Adicionamos outro oligômero ao fluxo, chegando à adsorção sequencial de misturas. Estudamos a maneira como a fração de cada um dos oligômeros no fluxo de moléculas influi tanto na dinâmica do preenchimento da camada, como na taxa de saturação da rede. Em seguida analisamos a influência do oligômero adicional na estrutura da monocamada automontada obtida. Como antes, sempre que possível os dados obtidos são comparados com resultados da literatura. Introduzimos processos de relaxamento, chegando a adsorção-difusão, adsorção-evaporação e adsorção-difusão-evaporação, em todos os casos compilando modelos estocásticos disponíveis na literatura e, onde possível, comparando as previsões desses modelos com resultados de nossas simulações numéricas. Assim como no caso RSA simples, ao estudar esses processos derivados de RSA, analisamos tanto a cinética dos processos (incluindo o estado final do sistema), quanto as estruturas formadas (através da função de correlação e do tamanho de domínios), destacando as mudanças causadas quando se introduz processos de relaxamento durante a formação de uma SAM. Por fim, estudamos processos cooperativos, em que o destino dos oligômeros sendo depositados depende da vizinhança em que se encontram. Como é usual em modelos estatísticos de deposição sequencial, as interações são representadas por mudanças nas taxas de ocorrência de algum dos eventos, neste caso a difusão. Apresentamos dados inéditos, relativos ao modelo cooperativo de adsorção-difusão que simulamos numericamente, com o objetivo de demonstrar a influência que uma interação atrativa entre oligômeros pode ter na estrutura da monocamada depositada sobre o substrato. O objetivo é mostrar como a estrutura de um SAM pode fornecer indícios sobre as interações existentes entre oligômeros. / In this work we study particle deposition in one-dimensional lattices, through a statistical approach, using models such as random sequential adsorption (RSA) and cooperative sequential adsorption (CSA). The goal is to simulate the formation of oligomeric self-assembled monolayers (SAMs) on substrates, which are relevant right now important firstly because of recent advances in the experimental area, with manufacturing of nanostructures using SAMs, and secondly because of progresses in the theoretical field, with development of stochastic models of sequential adsorption process. We introduce the classical model of random sequential adsorption, the associated nomenclature, and some of its characteristics. We analyze the portion of the lattice that remains empty after reaching saturation, for oligomers formed with K units. Subsequently we study the kinetics of a RSA process, initially for the case of monomers, then for dimmers, and lastly for larger species. The structure of the monolayer is analysed in terms of grain or domain size (probability distribution p(n) for n contiguous ologomers), and correlation function, for dimmers. Data obtained in our Monte Carlo simulations are compared with existing results in literature. From this point on, we study variations of the simple RSA process. We add another oligomer to the flux, obtained RSA of mixtures. We examine how the flux of each of the oligomers affects the filling of the monolayer: not only the final coverage saturation, but the kinetics of the process. We further analyze the influence of the additional oligomer in the structure of the monolayer obtained. Also here we compare our results with models from the literature. We add relaxation to the adsorption processes, achieving adsorption-diffusion (RSAD), adsorption-desorption, and adsorption-diffusion-desorption, always compiling stochastic models available in the literature, and comparing our results where analytical models are available. As done previously with RSA, when studying these more complex processes, we analyze the kinetics (including the final coverage) as much as th resulting structure (correlation function and domain size distribution), highlighting changes caused by these relaxation processes. In the final chapter we study cooperative process, in which the destiny of oligomers being adsorbed depends on their neighborhood. As usual in statistical models of sequential adsorption, the interactions are represented by changes of rates of some event (in this case, diffusion). We present new data, concerning the cooperative adsorption-diffusion model we simulated, aiming to demonstrate the influence an attractive interaction between oligomers may have in the structure of the monolayer formed on the substrate. The objective is illustrate how a SAM structure may give clues about the existence of interactions between oligomers.
|
132 |
Um modelo probabilístico de classificação baseado em identificação de fronteiras de grupos.Henry Rossi de Almeida 23 March 2006 (has links)
Nesta tese foi considerado o problema de classificação de objetos (indivíduos, empresas, produtos) em dois ou mais grupos. A abordagem tradicional se fundamenta principalmente em modelos como Logit ou Análise Discriminante. Resulta deste modo, como função de classificação, uma medida estatística - um ponto de corte (escore) ou uma medida de distância padronizada ao centro do agrupamento ou uma hipersuperfície de separação - definida com a utilização simultânea de toda a amostra. No modelo proposto foi considerado que as variáveis de classificação são limitadas, inferior ou superiormente. Esta hipótese determina uma fronteira, limite da região domínio de cada grupo em observação. Objetivou-se, como proposta final, efetuar o desenvolvimento de uma técnica para identificar estas fronteiras, associado a uma medida de natureza probabilística para cada unidade observada, especificando quanto a mesma está inserida em seu respectivo grupo, relativamente à fronteira deste. Em seguida foram propostos os procedimentos para classificar nova unidade objeto, no grupo onde a medida de inserção fosse maior e, também, procedimentos para viabilizar o refinamento constante da forma das envoltórias, a partir da análise de novas unidades. Para avaliação, foram utilizados dois exemplos ilustrativos, possibilitando o teste do modelo contra as técnicas de Análise Discriminante, Regressão Logística e mesmo Programação Linear Inteira, testada pelo autor de um dos exemplos. Os resultados se mostraram favoráveis, apontando para a viabilidade do uso do modelo.
|
133 |
Um estudo sobre o método da mistura de gaussianas para formação de grupos de dados.Ernée Kozyreff Filho 17 July 2009 (has links)
O presente texto discorre sobre o método da mistura de gaussianas aplicado à formação de agrupamentos (clusters) de observações a partir de um conjunto maior de dados. Trata-se de um problema sem solução analítica e, assim, utiliza-se o algoritmo EM (Expectation Maximization) para encontrar soluções por meio de dois procedimentos: inicializações aleatórias e pré-estimativas via métodos hierárquicos de formação de clusters. Conclui-se que a segunda opção é robusta quando se utiliza o método de Ward, enquanto que a primeira também propicia bons resultados, mas que são raros dentre muitas soluções ruins ou pontos de singularidade. Apresenta-se também um exemplo dos métodos estudados com dados reais de empresas brasileiras para ilustrar e complementar o trabalho.
|
134 |
Experimental setup for air traffic control cognitive complexity analysis.Emilio Alverne Falcão de Albuquerque Filho 15 December 2009 (has links)
In many parts of the world, future air traffic demands are expected to exceed air traffic capabilities and, at times, the system does already become overloaded. In this context, in the United States, the Next Generation Air Transportation System (NGATS) vision arises, which calls for a set of system modifications, with the increase and addition of capabilities that are expected to allow a proper response to the future needs of the American air transportation system. As a consequence of these modifications, the controller's tasks and roles are going to change, but it is anticipated that the cognitive complexity is going to remain a limiting factor to the system capacity. Therefore it is necessary to understand the complexity's mechanisms and how it might behave under current and future operations. This work deals with the identification of the key factors that drive complexity and the development of cognitive complexity metrics for the current and future operations. It is presented the experimental setup designed for measuring effects of four-dimensional trajectories and different schedules on air traffic controller perceived complexity. A complexity measure indicator based on the implemented complexity subjective metrics has been derived. This indicator has shown higher sensibility to complexity behavior compared to any of the other metrics alone. Nonetheless, it was found that this complexity indicator has to be used together with metrics that capture aircraft individual complexity, in order to fully describe the underlying cognitive complexity. It is found that Time-Based control induces lower perceived complexity than Position-Based control. Optimized schedules prove to be proner to higher cognitive complexity levels, due to the difficulty of conforming to a tight throughput and executing aircraft swaps. Nevertheless, if optimized schedules are used under Time-Based control, the least complexity measures are detected. This suggests how automation tools and optimized schedules must be considered in the design of future air traffic control operations.
|
135 |
Uma metodologia de identificação e tratamento de pontos fora da curva ("outliers")Arie Zeyulun Lionel Dotan 01 January 1996 (has links)
"Outliers" são pontos que se desviam do restante dos pontos de uma amostra, parecendo ter sido gerados por um mecanismo distinto. Os "outliers" podem contaminar as características de uma amostra e causar uma tendenciosidade ou até mesmo falha de estimadores. Este trabalho tem como objetivo avaliar e comparar novas metodologias de identificação e tratamento de "outliers" com as metodologias de regressão robusta e convencional existentes. Foi avaliada uma nova metodologia de identificação de "outliers", LTS-n, minimização da somatória dos resíduos ao quadrado, comparando-a com as seguintes metodologias: (a) LMS: minimização da mediana do resíduo ao quadrado; (b) LTS-h: minimização da somatória de, aproximadamente, metade dos resíduos ao quadrado, ordenados; e (c) metodologia convencional de "Banda" (margem em torno de uma curva de referência). Foi sugerida uma nova metodologia de tratamento de "outliers" cujo princípio primordial consiste em não se descartar totalmente os "outliers" mas sim suavizar o critério de eliminação dos mesmos, WLS, com atribuição de peso parcial (entre zero e um) aos "outliers" marginais. A avaliação foi realizada através da comparação com a metodologia convencional RLS, que atribui peso 0 ou 1. Para tanto, foi desenvolvido um software empregando as metodologias citadas anteriormente. Após a análise de diversos exemplos, concluiu-se que as metodologias de regressão robusta são ferramentas mais eficientes na identificação de "outliers" do que a metodologia Banda, cujas curvas de referência tornam-se tendenciosas devido à presença dos "outliers". A metodologia LTS-n é menos resistente aos "outliers" que as outras regressões robustas (LMS, LTS-h). A WLS é significativamente diferente da RLS quando a amostra possui um percentual elevado de "outliers" (acima de 10%). A grande vantagem desta metodologia consiste em não se descartar "outliers" marginais. O uso desta metodologia mostrou-se interessante tanto para amostras pequenas (n<15), quando não se deseja descartar observações de forma arbitrária, como também para grandes massas de dados em sistemas automáticos de decisões.
|
136 |
Análise da deformação de envelopes motores foguete devido à ação do tratamento térmicoPaulo Roberto Sakai 21 December 2005 (has links)
O tratamento térmico, considerado um processo especial, induz deformações em estruturas metálicas tratadas. Este trabalho propõe um método, baseado em técnicas estatísticas aplicadas a dados históricos, que permite visualizar, atestar de maneira significativa e obter uma previsão das variações dimensionais devidas ao tratamento térmico. O método proposto foi aplicado na averiguação das deformações ocorridas na têmpera e no revenimento de envelopes motores S40 e S43, usados correntemente no VLS-1 (veículo lançador de satélites). As variáveis "Diâmetro", "Comprimento" e "Erro de Forma Longitudinal" da região cilíndrica de tais motores foram avaliados antes e após tratamento térmico. Os resultados indicaram uma diminuição de "Diâmetro" e "Comprimento" e um aumento do "Erro de forma longitudinal". Finalmente, o método proposto obteve um intervalo de valores, com um nível de confiança de 95%, que permite o estabelecimento de tolerâncias de projeto para as variáveis trabalhadas, os quais devem ser usados como critérios na aceitação de um envelope motor.
|
137 |
Aplicação de métodos estatísticos a análise de problemas de mecânica da fraturaJuliana Diniz Mattos 24 May 2013 (has links)
O cálculo da vida útil de estruturas quanto à fadiga aborda, entre outros aspectos, a análise da propagação de trincas ao longo da vida operacional. Neste sentido, o enfoque determinístico é consagrado na indústria por ter sua teoria amadurecida (isto é, trata-se de um método mais antigo), bem como por ser amplamente reconhecido e aceito pelos órgãos certificadores. O presente trabalho aborda outro enfoque da avaliação quanto à fadiga, que é o enfoque probabilístico. Entre outros aspectos, este enfoque emprega conceitos de estatísticas e probabilidades na avaliação de configurações estruturais submetidas a carregamentos cíclicos. Serão apresentados ao logo deste trabalho o conceito de EIFS (equivalent initial flaw size) e uma metodologia desenvolvida para a sua determinação a partir de resultados de ensaios de fadiga. Os resultados de ensaios de fadiga analisados no presente trabalho são provenientes de dois componentes estruturais: um olhal e uma junta de cisalhamento. Estes componentes foram selecionados para esta avaliação devido a sua vasta aplicação na indústria. Foram ilustrados ao longo do trabalho os ganhos decorrentes da aplicação do enfoque probabilístico, para as duas configurações. Conforme será detalhado, foi verificado que para a junta de cisalhamento o enfoque probabilístico levaria ao cálculo de uma vida operacional maior que a determinada por meio do enfoque determinístico tradicional. Para o olhal, tal aumento só foi verificado para uma pequena faixa de tensões de carregamento. O conceito de EIFS consiste em um dos pilares da análise de confiabilidade de estruturas, posto que é um dos parâmetros de entrada para uma análise integrada, em que diversos fatores são considerados simultaneamente. Recentemente o meio acadêmico está abordando com maior frequência o enfoque probabilístico e a indústria está paulatinamente reconhecendo os ganhos que podem advir da sua aplicação consistente.
|
138 |
Aplicação de ferramentas da qualidade na colheita mecanizada de soja /Menezes, Patricia Candida de January 2018 (has links)
Orientador: Rouverson Pereira da Silva / Coorientador: Antônio Sérgio Ferraudo / Coorientador: George Vellidis / Coorientador: Murilo Aparecido Voltarelli / Banca: Afonso Lopes / Banca: Carlos Eduardo Angeli Furlani / Banca: Fabio Alexandre Cavichioli / Banca: Tiago Rodrigo Francetto / Resumo: Visto que o monitoramento e controle das perdas na colheita, assim como a utilização de ferramentas da qualidade adaptadas para as condições agrícolas, são instrumentos que tornam a melhoria da qualidade das operações possível, objetivou-se aplicar ferramentas da qualidade para avaliação da colheita mecanizada de soja em propriedades dos estados de Rondônia e Mato Grosso, visando definir parâmetros que possam contribuir para a efetiva utilização destas técnicas no setor agrícola. O estudo foi desenvolvido nos anos de 2016, em duas propriedades, e 2017, em quatro propriedades agrícolas. Foram realizados experimentos no campo para avaliação das perdas de grãos, em função da plataforma de corte, utilizando-se o controle estatístico de processo (CEP), e aplicação do método de análise do modo e efeito de falhas (FMEA) para identificação e priorização dos indicadores críticos de qualidade na colheita. O tipo de plataforma de corte da colhedora utilizado influenciou na quantidade de perdas de grãos, sendo que a plataforma de esteira condutora apresentou melhor qualidade na colheita, com menores médias de perdas e menor variabilidade do processo. A utilização do método de FMEA foi eficiente para a identificação de indicadores críticos de qualidade e suas respectivas causas, assim como, a adaptação da metodologia proposta mostrou-se promissora, uma vez que facilitou a aplicação dos questionários viabilizando o aumento do número de respondentes. As ferramentas da qualidade aplicadas no... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Since the monitoring and control of crop losses, as well as the use of quality tools adapted to the agricultural conditions, are instruments that make the improvement of the quality of operations possible, the aim was to apply quality tools to evaluate the mechanical soybean harvesting in farms of the states of Rondônia and Mato Grosso, aiming to define parameters that can contribute to the effective use of these techniques in the agricultural sector. The study was developed in the years 2016, in two farms, and 2017, in four farms. Experiments were carried out in the field to evaluate grain losses, as a function of the combine header, using statistical process control (SPC), and the method of Failure Mode and Effects Analysis (FMEA) was used to identify and prioritize critical harvest quality indicators. The type of combine header of the combine harvester used influenced the amount of grain losses, and the draper header presented better harvest quality, with lower average losses and lower process variability. The use of the FMEA method was efficient for the identification of critical quality indicators and their respective causes, as well as, the adaptation of the proposed methodology was promising, since it facilitated the application of the questionnaires, enabling an increase in the number of respondents. The quality tools applied in the agricultural processes enable the improvement of the quality of operations. / Doutor
|
139 |
Adsorção sequencial unidimensional: Modelos para automontagem de moléculas / Unidimensional sequential adsorption: Models for self-assembly of molecules.Alexandre Martins Melo 15 August 2005 (has links)
Neste trabalho estudamos deposição de partículas em redes unidimensionais, com uma abordagem estatística a partir de modelos como absorção sequencial aleatória (RSA) e cooperativa (CSA). O objetivo é a simulação de formação de monocamadas oligoméricas automontadas em substratos, que se justifica devido aos recentes avanços, por um lado, na área experimental, na formação de SAMs (self-assembled monolayers) e produção de nanoestruturas e, por um lado, na área teórica, no desenvolvimento de diversos modelos estocásticos para processos de adsorção sequencial. Introduzimos o modelo clássico de adsorção sequencial aleatória, a nomenclatura utilizada, e estudamos algumas de suas características. Analisamos a fração da rede que permanece vazia após ser atingida a saturação, para oligômeros formados por um número K de unidades. Em seguida, estudamos a cinética de um processo RSA, primeiro para o caso de monômeros, depois para dímeros, e então para oligômeros maiores. A estrutura da camada para o caso de dímeros é examinada a partir da distribuição de tamanhos de grãos (número de K-meros adjacentes), e da função de correlação. Os dados obtidos nas nossas simulações de Monte Carlo são comparados com resultados de modelos estocásticos existentes na literatura. A partir desse ponto, estudamos variações do processo de RSA simples. Adicionamos outro oligômero ao fluxo, chegando à adsorção sequencial de misturas. Estudamos a maneira como a fração de cada um dos oligômeros no fluxo de moléculas influi tanto na dinâmica do preenchimento da camada, como na taxa de saturação da rede. Em seguida analisamos a influência do oligômero adicional na estrutura da monocamada automontada obtida. Como antes, sempre que possível os dados obtidos são comparados com resultados da literatura. Introduzimos processos de relaxamento, chegando a adsorção-difusão, adsorção-evaporação e adsorção-difusão-evaporação, em todos os casos compilando modelos estocásticos disponíveis na literatura e, onde possível, comparando as previsões desses modelos com resultados de nossas simulações numéricas. Assim como no caso RSA simples, ao estudar esses processos derivados de RSA, analisamos tanto a cinética dos processos (incluindo o estado final do sistema), quanto as estruturas formadas (através da função de correlação e do tamanho de domínios), destacando as mudanças causadas quando se introduz processos de relaxamento durante a formação de uma SAM. Por fim, estudamos processos cooperativos, em que o destino dos oligômeros sendo depositados depende da vizinhança em que se encontram. Como é usual em modelos estatísticos de deposição sequencial, as interações são representadas por mudanças nas taxas de ocorrência de algum dos eventos, neste caso a difusão. Apresentamos dados inéditos, relativos ao modelo cooperativo de adsorção-difusão que simulamos numericamente, com o objetivo de demonstrar a influência que uma interação atrativa entre oligômeros pode ter na estrutura da monocamada depositada sobre o substrato. O objetivo é mostrar como a estrutura de um SAM pode fornecer indícios sobre as interações existentes entre oligômeros. / In this work we study particle deposition in one-dimensional lattices, through a statistical approach, using models such as random sequential adsorption (RSA) and cooperative sequential adsorption (CSA). The goal is to simulate the formation of oligomeric self-assembled monolayers (SAMs) on substrates, which are relevant right now important firstly because of recent advances in the experimental area, with manufacturing of nanostructures using SAMs, and secondly because of progresses in the theoretical field, with development of stochastic models of sequential adsorption process. We introduce the classical model of random sequential adsorption, the associated nomenclature, and some of its characteristics. We analyze the portion of the lattice that remains empty after reaching saturation, for oligomers formed with K units. Subsequently we study the kinetics of a RSA process, initially for the case of monomers, then for dimmers, and lastly for larger species. The structure of the monolayer is analysed in terms of grain or domain size (probability distribution p(n) for n contiguous ologomers), and correlation function, for dimmers. Data obtained in our Monte Carlo simulations are compared with existing results in literature. From this point on, we study variations of the simple RSA process. We add another oligomer to the flux, obtained RSA of mixtures. We examine how the flux of each of the oligomers affects the filling of the monolayer: not only the final coverage saturation, but the kinetics of the process. We further analyze the influence of the additional oligomer in the structure of the monolayer obtained. Also here we compare our results with models from the literature. We add relaxation to the adsorption processes, achieving adsorption-diffusion (RSAD), adsorption-desorption, and adsorption-diffusion-desorption, always compiling stochastic models available in the literature, and comparing our results where analytical models are available. As done previously with RSA, when studying these more complex processes, we analyze the kinetics (including the final coverage) as much as th resulting structure (correlation function and domain size distribution), highlighting changes caused by these relaxation processes. In the final chapter we study cooperative process, in which the destiny of oligomers being adsorbed depends on their neighborhood. As usual in statistical models of sequential adsorption, the interactions are represented by changes of rates of some event (in this case, diffusion). We present new data, concerning the cooperative adsorption-diffusion model we simulated, aiming to demonstrate the influence an attractive interaction between oligomers may have in the structure of the monolayer formed on the substrate. The objective is illustrate how a SAM structure may give clues about the existence of interactions between oligomers.
|
140 |
Mapeamento de níveis freáticos do sistema aquífero bauru (SAB) em área de proteção ambiental em Águas de Santa Bárbara/SP durante o ano hidrológico 2014/15 /Santarosa, Lucas Vituri 1987 January 2016 (has links)
Orientador: Rodrigo Lilla Manzione / Banca: Sérgio Campos / Banca: Ana Paula Barbosa / Resumo: A estatística espacial aplicada a coleta de dados, análise e interpretação de fenômenos espaciais é uma ferramenta importante para gestão dos recursos hídricos, exigindo modelos matemáticos precisos e com capacidade de determinar as incertezas. Assim, as metodologias geoestatísticas apresentam-se como uma alternativa para análise de dados voltados ao monitoramento dos aquíferos coletados em redes geoespaciais, reduzindo os efeitos relacionados à amostragem e agregando sentido físico a análise. Este trabalho explorou o uso da geoestatística no mapeamento da dinâmica de níveis freáticos do Sistema Aquífero Bauru (SAB), comparando interpoladores como krigagem e cokrigagem, em condições de amostragem anisotópica. Foram utilizadas como variáveis auxiliares as propriedades físico-hídricas do solo e do relevo para o mapeamento dos níveis freáticos do ano hidrológico 2014/2015 e 2015/2016 a partir de 48 poços de monitoramento localizados nos domínios da Estação Ecológica de Santa Bárbara (EEcSB), município de Águas de Santa Bárbara/SP. Os objetivos foram verificar a oscilações do nível freático em uma área do SAB, estimar os volumes recuperados e reunir informações para formular um Modelo Hidrogeológico Conceitual (MHC). Os resultados mostraram que a adoção das variáveis auxiliares, sobretudo dados topográficos e resistência do solo a penetração, são capazes de melhorar as estimativas espaciais, com visível redução da variância amostral, suavizando os erros nas predições. Os volumes ... / Abstract: The spatial statistics applied to data collection, analysis and interpretation of spatial phenomena has become essential for management of water resources, requiring accurate mathematical models and the ability to determine the uncertainties. Therefore, geostatistics presented as an important tool for data analysis aimed at monitoring of aquifer collected in geospatial networks, reducing the effects related at data collection and merging physical sense in the analyses. This study explored the use of geostatistics in mapping the dynamic of Bauru Aquifer System (BAS), comparing interpolators as kriging and cokriging in anisotopic sampling conditions. Were used as auxiliary variables the physical and hydraulic of the soil and the topography for the mapping of water table deep of the hydrological year 2014/2015 and 2015/2016 onwards of 48 monitoring wells located in the Ecological Station of Santa Barbara (EEcSB) domain, in Águas de Santa Barbara, Sao Paulo, Brazil. The objectives were to verify the fluctuations of water table in an area the BAS, estimate the recovered water volumes and gather information for the formulation of the Hydrological Conceptual Model (HCM). The results showed that the using of the auxiliary variables, mainly topographic data and soil resistance penetration, are able to improve the spatial predictions, with notable reductions at sampling variance and decreasing errors in the predictions. The water volumes recovered calculated from the water table maps a... / Mestre
|
Page generated in 0.066 seconds