• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 189
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 198
  • 198
  • 140
  • 116
  • 48
  • 42
  • 38
  • 36
  • 31
  • 29
  • 29
  • 27
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Ajuste de curvas por polinômios com foco no currículo do ensino médio / Curve fitting polynomials focusing on high school curriculum

Santos, Alessandro Silva, 1973- 27 August 2018 (has links)
Orientador: Lúcio Tunes dos Santos / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-27T11:38:45Z (GMT). No. of bitstreams: 1 Santos_AlessandroSilva_M.pdf: 6474871 bytes, checksum: 351d93b093e44b399a99cd42075cb4b5 (MD5) Previous issue date: 2015 / Resumo: ste trabalho surge a partir de uma proposta de desenvolvimento do ajuste de curvas com uma abordagem que busca enriquecer o estudo de funções presente no currículo do ensino fundamental e médio. É apresentada ao aluno, desde o aspecto histórico do ajuste, passando pela interpolação de curvas, com foco na interpolação polinomial e o método dos quadrados mínimos, no qual são apresentados, a regressão linear, além de modelos como o ajuste exponencial. É também descrita nesta dissertação uma ferramenta de grande importância no cálculo numérico, o conceito de erro de ajuste, sua definição e forma de estimativa. Na interpolação polinomial, o aluno, ao desenvolver a forma de Lagrange, é estimulado a trabalhar as operações, forma fatorada e interpretação das vantagens do método, como o número e grau de dificuldade de operações realizadas por esse. Interpolação inversa e interpolação de curvas complementam o referido capítulo, em que busca, sempre que possível, utilizar situações problema . O método dos quadrados mínimos estimula o estudante a escolha da função de ajuste e determinação dessa a partir do conceito de minimização do erro. Polinômios de grau um,a regressão linear, e dois são trabalhados devido a sua importância no currículo do ensino médio. Explorando também conceitos como logaritmos e exponenciais, propõe-se o ajuste linear de modelos exponenciais, utilizando situações problema de uma área em evidência no momento, a Biomatemática, modelar dinâmicas de crescimento populacional. Dessa forma o aluno tem contato com formas de previsão que são úteis em importantes áreas como: a saúde pública, a modelagem de epidemias e desenvolvimento de patógenos; planejamento de políticas públicas com a modelagem do crescimento e distribuição da população; comportamento da economia como no caso de previsões de juros futuros. Para que este trabalho possa servir de auxílio aos professores de forma prática e interessante, o capítulo final traz sugestão de problemas na forma de planilha, facilitando sua reprodução e aplicação em sala de aula / Abstract: This study comes from a development proposal curves adjustment with an approach that seeks to enrich the study of present functions in the primary and secondary curriculum. It is presented to the student, from the historical aspect setting, through interpolation curves, focusing on polynomial interpolation and the method of least squares, which presents the linear regression, and models like the exponential fit. It is also described in this work a very important tool in numerical calculation, the concept of setting error, its definition and method of estimation. In polynomial interpolation, the student, to develop the form of Lagrange, is encouraged to work operations, factored form and interpretation of the advantages of the method, as the number and degree of difficulty of tasks for this. Inverse interpolation and interpolation curves complement the chapter on seeking, whenever possible, use problem situations. The method of least squares stimulates the student the choice of setting function and determine this from the concept of minimizing the error. Polynomials of degree one, linear regression, and two are worked because of its importance in the high school curriculum. Also exploring concepts such as logarithms and exponential, it is proposed that the linear fit of exponential models using problem situations evidence in area at the time, the Biomathematics, modeling dynamics of population growth. Thus the student has contact with forms of provision that are useful in important areas such as public health, the modeling of epidemics and development of pathogens; public policy planning with modeling of growth and distribution of population; behavior of the economy as in the case of future interest rate forecasts. For this work may be an aid to teachers in a practical and interesting, the final chapter brings problems suggestion in the form of sheet, facilitating its reproduction and use in the classroom / Mestrado / Matemática em Rede Nacional - PROFMAT / Mestre em Matemática em Rede Nacional - PROFMAT
52

Mínimos quadrados ordinários (MQO) na produção científica brasileira: a interdisciplinaridade entre a econometria e as metrias da informação (bibliometria, informetria e cientometria)

Santos, Levi Alã Neves 05 December 2017 (has links)
Submitted by Programa de Pós-graduação em Ciência da Informação Informação (posici@ufba.br) on 2018-02-20T16:02:35Z No. of bitstreams: 1 Tese Levi Santos PPGCI-UFBA 05.12.2017.pdf: 2156886 bytes, checksum: 4eed68b043eb80a2c3b2e4ca1214aaf3 (MD5) / Approved for entry into archive by Uillis de Assis Santos (uillis.assis@ufba.br) on 2018-09-14T17:32:00Z (GMT) No. of bitstreams: 1 Tese Levi Santos PPGCI-UFBA 05.12.2017.pdf: 2156886 bytes, checksum: 4eed68b043eb80a2c3b2e4ca1214aaf3 (MD5) / Made available in DSpace on 2018-09-14T17:32:00Z (GMT). No. of bitstreams: 1 Tese Levi Santos PPGCI-UFBA 05.12.2017.pdf: 2156886 bytes, checksum: 4eed68b043eb80a2c3b2e4ca1214aaf3 (MD5) / Analisa a produção científica brasileira (artigos nacionais, artigos internacionais, anais de eventos e livros) através dos Mínimos Quadrados Ordinários (MQO). Para tanto, discorre sobre o percurso histórico e de aplicação das metrias que a Ciência da Informação (CI) vem construindo, desde a mais primordial de todas, a bibliometria, oriunda da biblioteconomia, passando pelas visões modernas como a cienciometria até a informetria. Explica como a econometria constrói o seu modelo de análise, que é utilizado para pesquisas na economia e, ao mesmo tempo, reflete como esse método pode ser trazido para as metrias da informação. Explica e expõe o método de estimação por MQO para a análise de regressão, que é a proposta desta tese. Pesquisa aplicada descritiva com abordagem quantitativa com procedimentos baseados no tipo de pesquisa estudo de caso do levantamento de dados a partir do Portal do Plano Tabular do CNPq do ano de 2010. Os critérios para delineamento da pesquisa foram aprofundados, na revisão de literatura, em referências tanto da área da CI quanto da bibliometria, estatística e econometria. Este estudo, metodologicamente, conta com a abordagem conceitual da bibliometria e da CI em busca de teorias aplicáveis aos estudos em MQO e a aplicação empírica do MQO se aproxima da concepção econométrica. A tese conclui que a utilização de técnicas de análises das funções de regressão construída por meio de MQO possibilita a criação de um modelo de previsão da produção científica brasileira. Esse modelo é construído a partir da correlação e determinação detectada entre o número de doutores e a produção científica destes em cada estado do Brasil. Com a aplicação de estratégias econométricas (índice de correlação, índice de determinação, forma funcional de curva de regressão e cálculo dos parâmetros da função por MQO), foi possível construir um modelo de previsão.
53

Estimação de contrastes de médias de tratamentos, de um experimento em blocos ao acaso, utilizando as análises clássica e espacial / Estimation of treatments means contrasts, in a random blocks model, using the classical and spatial analysis

Maestre, Marina Rodrigues 08 October 2008 (has links)
Em um experimento, é comum ocorrerem fatores não controláveis, responsáveis pela heterogeneidade entre as parcelas. Mesmo executando os três princípios básicos da experimentação no planejamento (repetição, casualização e controle local), ainda assim, pode haver correlação nos erros e, portanto, dependência espacial na área estudada. Se for detectada essa estrutura de auto-correlação e se essa informação for utilizada na análise estatística, estimativas mais eficientes dos contrastes entre as médias dos tratamentos são garantidas, mas se tal estrutura for desconsiderada pode impedir que diferenças reais sejam detectadas. Neste trabalho, foram observadas as coordenadas dos centros das parcelas de um delineamento em blocos ao acaso. A variável resposta, deste experimento, é a concentração de carbono orgânico no solo, sendo as avaliações feitas no início do experimento, ou seja, antes da aplicaçao dos tratamentos, portanto, um ensaio em branco, um ano após a aplicação dos tratamentos e, novamente, depois de mais um ano. Para tanto, foram utilizadas as análises clássica e espacial na comparação dos métodos de estimação de contrastes de médias de tratamentos. O método estudado para a análise clássica, em que considera que os erros são não correlacionados, foi o dos mínimos quadrados ordinários. Já para a análise, levando em consideração a dependência espacial, foram utilizados o modelo geoestatístico, em que consiste na adição de um efeito aleatório com correlação, e o modelo de Papadakis, que consiste na adição de uma covariável construída a partir de observações em parcelas vizinhas. No modelo geoestatístico foi verificada a presença da dependência espacial através dos critérios de informação de Akaike e de informação Bayesiano ou de Schwarz e os métodos testados foram o do variograma seguido de mínimos quadrados generalizados e o da máxima verossimilhança. Para o modelo de Papadakis, foi testada a significância da covariável referente duas médias dos resíduos entre as parcelas vizinhas e a própria parcela tanto no modelo em blocos ao acaso quanto no modelo inteiramente casualizado, e o teste não foi significativo em nenhum dos dois casos. Mesmo assim, os cálculos foram realizados para esse método, mostrando que para esse conjunto de dados, este método não é indicado. Fazendo uso de algumas medidas de comparação desses métodos, para os dados em questão, o método de estimação dos contrastes de médias de tratamentos que apresentou as medidas de comparação mais dispersas foi o do modelo de Papadakis e o menos disperso foi o da máxima verossimilhança. Ainda, pelos intervalos de confiança, observou-se que na análise espacial, outros contrastes diferiram de zero significativamente, além daqueles que foram observados na análise clássica, o que se conclui que quando é levada em consideração a autocorrelação dos erros, os contrastes são estimados com maior eficiência / Not controllable factors is common occur in experiments, they are responsible for the heterogeneity among parcels. Even executing the three experimentation basic principles in the design (repetition, randomization and local control), even so, may have correlation in errors and, therefore, spatial dependence in the area of study. If that autocorrelation structure is detected and if this information is used in statistical analysis, estimates more efficient of contrasts among treatments means are guaranteed, but if this structure is disregarded can prevent that real diferences are detected. In this work, the coordinates of parcels centers in a design of random blocks were observed. The concentration of soil organic carbon is the response variable of this experiment, with the available made at the beginning of the experiment, ie, before the treatments application, therefore, a blank, a year after the treatments application and, again, after a year. Then, the classical and spatial analysis were used to compare the methods of estimation of treatments means contrasts. The method studied for the classical analysis, which considers that the errors are not correlated, was the ordinary least squares. For the analysis, considering the spatial dependence, were used the geostatistical model, where consists in the addition of a random effect with correlation, and the Papadakis model, which consists in the addition of a covariate built from observations in neighbouring. In geostatistical model was verified the spatial dependence through the Akaike and Bayesian or Schwarz criteria of information and the methods tested were the variogram followed by generalized least squares and the maximum likelihood. For the Papadakis model, was tested the significance of covariate referring to the average of residuals among neighbouring parcels and own parcel in the random blocks model and in the completely randomized model, and the test was not significant in any of both cases. Still, the calculus were made for this method, showing that for this data set, this method is not indicated. Using some measures to compare these methods, for these data, the method of estimation of treatments means contrasts which presented the measures of comparison more dispersed was the Papadakis model and the less dispersed was the maximum likelihood. Still, in the confidence intervals, it was observed that in spatial analysis other contrasts di®ered from zero significantly, besides of those which were observed in classical analysis, which concludes that when the autocorrelation of errors is considering, the contrasts are estimated with greater e±ciency.
54

Estudo de delineamentos experimentais no esquema fatorial duplo com um tratamento adicional / Study of experimental design in two-way factorial with an additional treatment

Vaz, Marcos André Braz 28 January 2013 (has links)
O presente trabalho teve como objetivo o estudo de experimentos em delineamentos em esquema fatorial duplo com tratamento adicional do tipo testemunha. Para este esquema usa-se a notação A x B +1, em que A representa o primeiro fator com i níveis (i = 1, 2, ..., a) e B representa o segundo fator com j níveis (j = 1, 2, ..., b) com a adição do tratamento adicional. Para a análise de variância deste caso, consideraram-se os modelos lineares yijk = μ + αi + βj + γij + εijk e yh = μ + τ + εh; relacionados, em que yijk é a variável observada no i-ésimo nível do fator α com o j-ésimo nível do fator β da k-ésima repetição (k = 1, 2, ..., r), μ é a média amostral, αi é o efeito do i-ésimo nível do primeiro fator, βj é o efeito do j-ésimo nível do segundo fator, γij é o efeito da interação do i-ésimo nível do fator α com o j-ésimo nível do fator β, εijk é o erro associado independente e identicamente distribuído, εijk~N(0,σ2), yh é a variável observada na h-ésima repetição do tratamento adicional, τ é o efeito do tratamento adicional e εh é o erro associado ao tratamento adicional, independente e identicamente distribuído εh~N(0,σ2). Considerou-se os delineamentos experimentais inteiramente casualizado e blocos casualizados. Para a análise do delineamento em blocos ao acaso, a adição do efeito de blocos λv (v = 1, 2, ..., w) aos modelos, se fez necessária. Foi realizada a dedução da soma de quadrados de tratamentos e sua decomposição para os efeitos dos fatores, sua interação e o contraste com o tratamento adicional. Os graus de liberdade foram deduzidos a partir do posto da matriz núcleo da forma quadrática das somas de quadrados. A técnica do diagrama de Hasse também foi adotada para dedução das somas de quadrados e graus de liberdade. Uma ilustração do método obteve os mesmos resultados da análise de variância do pacote ExpDes no programa R. Curvas de regressão linear foram ajustadas considerando o tratamento controle como um nível de fatores quantitativos. O teste de Dunnett foi empregado para comparar as médias do fatorial com o tratamento controle. / The present study aimed to study the experiments in two-way factorial designs with additional treatment of type control. For this scheme uses the notation A x B +1, where A represents the first factor levels with i (i = 1, 2, ..., a) and B is the second factor with levels j (j = 1 , 2, ..., b) with the addition of one more treatment. For the analysis of variance of this case, we considered the linear models yijk = μ + αi + βj + γij + εijk and yh = μ + τ + εh; related, wherein yijk is the variable observed in the ith level of factor α with the jth level of factor β of k-th iteration (k = 1, 2, ..., r), μ is the sample mean, αi is the effect of the ith level of the first factor, βj is the effect of the jth level of the second factor, γij is the interaction effect of the ith level of factor α with the jth level of factor β, εijk is the error associated with independent and identically distributed, εijk~N(0,σ2), yh is the variable observed in the hth repetition of the additional treatment, τ is the effect of the additional treatment and εh is the error associated to the additional treatment, independent and identically distributed εh~N(0,σ2). It was considered the completely experimental designs and randomized block design. For the analysis of the randomized block design, the addition of blocks effect λv (v = 1, 2, ..., w) to the models, was necessary. Was performed the deduction of the sum of squares of treatments and their decomposition to the effects of the factors, their interaction and the contrast with the additional treatment. The degrees of freedom were deducted from the posto of the matrix core of the quadratic form of sums of squares. The Hasse diagram technique has also been adopted for deduction of sums of squares and degrees of freedom. An illustration of the method has obtained the same results of analysis of variance program package ExpDes in R. Linear regression analysis was fitted control treatment as a level of the quantitative factors. The Dunnett test was used to compare the means of the factorial with the control treatment.
55

Obtenção do fator de intensidade de tensões através do método dos elementos finitos e BS-7910.

Marcelo Aparecido da Silva 00 December 2004 (has links)
Durante os processos de inspeções e avaliações de integridade, cabe ao engenheiro decidir sobre a rejeição ou aprovação de defeitos encontrados em uma estrutura.Nestas circunstâncias, a padronização de procedimentos vinculados à mecânica da fratura tende a aumentar a disponibilidade operacional, reduzir o número de intervenções e garantir alto grau de segurança. Desta forma, apresentamos neste texto dois procedimentos para determinação do fator de intensidade de tensões. Primeiramente, será utilizado o procedimento inglês BS-7910 posteriormente, o fator de intensidade de tensões será obtido através do método de elementos finitos. Os resultados são comparados e discutidos possibilitando assim, razoável contribuição nas avaliações pela mecânica da fratura.
56

Aplicação de métodos de suavização para obtenção de cargas de amerissagem.

Jean Carlos Domingues Santos 00 December 2004 (has links)
Normalmente, quando um avião é certificado para condições de "ditching" segundo o FAR25, ou é feito um teste com modelo em escala ou é usado dados de um outro avião similar já certificado para mostrar o atendimento aos requisitos. Às vezes, não há dado disponível para provar por similaridade e, portanto, o teste com modelo em escala se faz necessário, mas é bem conhecido que um teste de "ditching" custa tempo e dinheiro. Então, para evitar ou minimizar estes custos, decidiu-se por utilizar um programa de fluido-estrutura (Dytran) para simular um avião em condições de "ditching". Baseado em experiência anterior, o primeiro resultado da simulação estava coerente uma vez que o avião apresentou o comportamento de levantar o nariz. Porém as acelerações e a distribuição de pressão não estavam totalmente usáveis devido a um certo ruído numérico nos resultados. Como os resultados puros no CG - deslocamentos e rotações - estavam consistentes, foi aplicado o método de mínimos quadrados com restrições para encontrar as novas velocidades e acelerações suavizadas e, conseqüentemente, as forças e os momentos de contato teóricos no CG. Depois, foi elaborado um procedimento usando técnicas de suavização para tratar a distribuição de pressão original para todos os painéis do avião de tal forma que os esforços de contato resultantes fossem iguais aos teóricos. Finalmente, com os resultados filtrados, foram obtidos diagramas de esforços mais realísticos para alguns componentes do avião (fuselagem, asa e motor) e, assim, eles puderam ser comparados com os seus envelopes de carga final. Desta forma, será possível prever a seqüência de eventos, ou seja, qual componente vai quebrar primeiro ou ainda, com análises adicionais, será possível estabelecer a melhor combinação entre velocidade e ângulo de ataque para um procedimento de "ditching" mais seguro.
57

Estimação de derivadas de estabilidade de uma aeronave não-tripulada através do método de mínimos quadrados ortogonais

Joaquim Neto Dias 29 November 2012 (has links)
Este trabalho tem como objetivo a aplicação de técnicas recentes de estimação de parâmetros aerodinâmicos de uma aeronave não-tripulada utilizando dados reais obtidos com ensaios em voo. O modelo aerodinâmico completo da aeronave foi identificado pelo método dos dois passos. Inicialmente, foram empregadas técnicas de reconstrução de trajetórias para calibração dos sensores da aeronave, utilizando-se o método de erro na saída e o estimador de máxima verossimilhança. Na segunda etapa do método, as derivadas de estabilidade e controle foram estimadas pelo método dos mínimos quadrados ortogonais parciais, em que os regressores candidatos são ordenados com base em sua capacidade de reduzir a variância do resíduo. Por ser do tipo "equation error", este método tem a vantagem de ser não-iterativo, quando aplicado a um modelo linear nos parâmetros. Entretanto, é sensível a erros nas variáveis independentes, o que torna essencial a etapa anterior de reconstrução dos estados da aeronave. Esta metodologia foi inicialmente aplicada a um modelo de simulação de uma aeronave, para então ser utilizada com dados reais obtidos em ensaios em voo. A capacidade preditiva do modelo aerodinâmico identificado foi confirmada pela validação com um segundo conjunto de dados.
58

Influência das irregularidades da forma em peças de madeira na determinação do módulo de elasticidade longitudinal / Influence of timber pieces shape irregularities in longitudinal modulus of elasticity determination

Christoforo, André Luis 06 December 2007 (has links)
Atualmente, os documentos normativos que tratam da determinação das propriedades de rigidez e resistência para elementos roliços estruturais de madeira não levam em consideração em seus modelos matemáticos a influência das irregularidades existentes na geometria dessas peças. O presente trabalho tem como objetivo determinar o valor ótimo do módulo de elasticidade longitudinal para peças roliças estruturais de madeira por intermédio de uma técnica de otimização aliada ao método da análise inversa, ao método dos elementos finitos e ao método dos mínimos quadrados. / Currently, the normative documents that deal with the determination of the properties of rigidity and resistance for round structural timber elements round timber do not take in consideration in both calculations and mathematical models the influence of the existing of irregularities in the geometry of these elements. An objective of this work is to determine the optimum value of the modulus of elasticity for round structural timber elements by an optimization technique associated to the inverse analysis method, to the finite element method and the least squares method.
59

Estimação fasorial utilizando técnica recursiva dos mínimos quadrados

Ferreira, Ronaldo Rocha January 2014 (has links)
Orientador: Prof. Dr. Fabiano Fragoso Costa / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia Elétrica, 2014. / Este trabalho propõe um algoritmo de estimaçãoo fasorial baseado na versão modificada do algoritmo de mínimos quadrados recursivo. Este algoritmo é adequado para proteção de sistemas de potência, uma vez que sua resposta é rapida e robusta 'a presença da componente dc de decaimento exponencial, que é uma interferência comum em condi¸ções de falta atrasando a convergência da estimativa fasorial. Além disso, esta dissertação também investiga o uso do chamado método de Prony, a fim de auxiliar e acelerar a convergência da estimação fasorial do algoritmo dos mínimos quadrados. O método de Prony determina o decaimento exponencial a ser extraído do sinal analisado. As técnicas desenvolvidas nessa disserta¸c¿ao foram comparadas com o tradicional estimador de Fourier de um ciclo atrav'es de simula¸c¿oes realizadas em Matlab e de experimentos realizados com um processador de sinais e um amplificador de sinais. Os resultados mostram melhorias da t'ecnica proposta em comparação ao algoritmo de Fourier e incentivam futuras pesquisas relacionadas a este assunto. / This work proposes a phasor estimation algorithm based on a modified recursive least-squares. This algorithm is suitable for power systems protection once its response quick and robust to the decaying dc component, which is a most usual interference in fault conditions and delays the phasor estimation convergence. Furthermore, this dissertation also investigates the usage of the so-called Prony¿s method in order to aid and to speed up the least-squares phasor estimation convergence. This method determines the exponential decaying to be extracted out of the analyzed signal. The present developed techniques have been compared with the traditional one-cycle Fourier estimation by simulation performed on Matlab and by experiments accomplished with a digital signal processor and a signal amplifier. The results show improvements of the proposed techniques over the Fourier algorithm and encourage further research in this topic.
60

Sensoriamento remoto hiperespectral nos níveis laboratório, campo e aéreo como ferramentas auxiliares no manejo do solo / Hyperspectral remote sensing in laboratory, field and airborne levels as auxiliary tools in soil management

Marston Héracles Domingues Franceschini 11 April 2013 (has links)
A produção agrícola tem crescido nos últimos anos impulsionada pelo aumento populacional e por avanços tecnológicos. Esse crescimento pode ocasionar impactos ambientais importantes, inclusive a degradação do solo, se não forem realizados o correto planejamento agrícola e manejo do solo, a fim de assegurar uma produção competitiva e sustentável. Para isto, a descrição da variabilidade espacial do solo é necessária, sendo realizada convencionalmente através de coleta e análise de amostras. Entretanto, estes métodos convencionais de levantamento da variabilidade do solo possuem custos elevados e demandam bastante tempo e mãode- obra para serem realizados. Com o aumento da quantidade de informação necessária os custos para descrição da variabilidade espacial do solo podem tornarse um obstáculo, se somente metodologias convencionais são aplicadas. Portanto, métodos alternativos tornam-se necessários para auxiliar no levantamento de atributos do solo em escala adequada ao manejo agrícola. Para isto, são propostas metodologias de espectroscopia de reflectância no Vis-NIR-SWIR, as quais empregam o comportamento espectral do solo de 400 nm a 2500 nm para realizar a quantificação de seus atributos. Isto é possível, pois a informação espectral possui relação direta com os constituintes do solo. Assim, no presente estudo é avaliado o uso de imagens aéreas hiperespectrais na quantificação de atributos do solo, através do método PLSR, e mapeamento destes atributos, empregando krigagem. O desempenho das predições feitas com dados do sensor aéreo é comparado ao obtido com espectros coletados em laboratório. Foi também avaliado, através de experimentos de campo, com diferentes doses de calcário em duas áreas diferentes (textura arenosa e média), o uso de informações espectrais coletadas no campo, em movimento, e em laboratório, com amostras úmidas, para a quantificação de atributos e da necessidade de calagem, pelo método PLSR. Foram obtidos resultados satisfatórios através dos dados do sensor aéreo, principalmente, para a quantificação dos teores de argila, areia e CTC (R2 de 0,73, 0,73 e 0,80, respectivamente). Com relação aos dados obtidos por sensoriamento próximo no campo, os melhores resultados foram obtidos para a área de textura média, com R2 de 0,33, 0,38 e 0,61 para a predição da CTC, V% e da necessidade de calagem, respectivamente. / Agricultural production has increased in the last years stimulated by the population growth and technological advances. This can cause significant environmental impacts including soil degradation if suitable agricultural planning and soil management are not applied in order to ensure a competitive and sustainable production. For this purpose, the soil variability assessment is needed and it is conventionally performed through soil sampling and analysis. However, conventional methods have high costs and require considerable time and labor. When the amount of information needed increases, costs to describe soil spatial variability may become an obstacle if only conventional methodologies are applied. Therefore, alternative methods can help to depict soil properties variability on a scale suitable to soil management. So, Vis-NIR-SWIR reflectance spectroscopy (from 400 nm to 2500 nm) is proposed as a mean to predict soil properties. This is possible because spectral information has a direct relationship with soil constituents and characteristics. Therefore, in this study hyperspectral airborne imagery is evaluated as an information source to be used in soil properties quantification, via the PLSR method, and mapping, using kriging. The performance of the models derived from airborne imagery data was compared with the results obtained by models calculated from laboratory sensor data. The use of spectral information collected in the field (on-thego) was evaluated too using a field experiment in witch different rates of lime were applied. The experiment was allocated in two fields with different soil textures (one with about 100 g kg-1 of clay and other with about 320 g kg-1 of clay). The soil properties prediction based on the on-the-go spectral measurements were compared to predictions made using spectra collect in the laboratory and the PLSR method was used to calculate models. Satisfactory results were obtained with airborne sensor data, especially for clay, sand and CTC quantification (R2 of 0.73, 0.73 and 0.80, respectively). Regarding the on-the-go proximal sensing, better predictions were obtained for the clayey area, with R2 of 0.33, 0.38 and 0.61 for predictions of CEC, base saturation of the soil CEC (V%) and lime requirement, respectively.

Page generated in 0.023 seconds