Spelling suggestions: "subject:"quadrado""
71 |
Quadrados latinos balanceados para a vizinhança - planejamento e análise de dados sensoriais por meio da ADQ / Latin squares balanced for the neighborhood - planning and analysis of sensory data obtained by the QDA.Paula da Fonte Sanches 25 January 2010 (has links)
As avaliações sensoriais tomam cada vez mais sua posição de importância dentro dos centros produtores e vendedores de alimentos e de outros produtos. Nestes, o objetivo final dos trabalhos realizados nas áreas de desenvolvimento, produção e `marketing\' e o consumidor, cuja avaliação se baseia, principalmente, na aceitabilidade e custos dos produtos. Nesses experimentos, uma serie de tratamentos e dada para cada provador, e um problema relevante e que a variável resposta dependa não só do tratamento aplicado atualmente, mas também do anterior seguido a ele, chamados de efeitos residuais. Visando uma melhor qualidade do produto, analises cada vez mais rigorosas são exigidas. Assim, um método frequentemente utilizado e o da analise descritiva, que tem por objetivo descrever e avaliar a intensidade dos atributos sensoriais dos produtos avaliados, orientando eventuais modificações das características das mesmas a m de atender as exigências do consumidor. Realizada por pessoas treinadas, com habilidade de discriminar, recebendo o nome de analise descritiva quantitativa (ADQ). Consequentemente, dadas as limitações quanto ao numero de provas sucessivas de degustação e presença frequente de efeitos residuais, o planejamento e analise dos experimentos para ADQ adquirem importância fundamental. Assim, de modo a resolver o problema apresentado, Williams (1949) apresentou os delineamentos quadrados latinos balanceados para vizinhança que, de forma geral, garantem que os efeitos residuais dos tratamentos não exerçam influência sobre a comparação dos efeitos dos tratamentos. Métodos adequados de construção, aleatorizacão e analise, utilizando o método ADQ de tais delineamentos são descritos e adaptados para o problema. São apresentados, analisados e discutidos, ainda, os resultados de um experimento de analise sensorial de diferentes cachaças, planejado e conduzido pela autora. Assim, com os resultados obtidos, concluiu-se que, para o planejamento de ensaios para a análise descritiva quantitativa (ADQ), os quadrados latinos balanceados para vizinhança, com a última coluna repetida, são uma alternativa importante / The sensory evaluations are increasingly taking its position of importance within the centers producers and sellers of food and other products. In these, the ultimate goal of the work in the areas of development, production and \'marketing\' is the consumer, whose evaluation is based mainly on the acceptability and cost of products. In these experiments, a series of treatments is given to each panelist, and a major problem is that the response depends not only on the treatment currently applied, but on the former followed by him. For a better quality product, analyzes increasingly stringent are required. Therefore, a method often used is descriptive analysis, which aims to describe and evaluate the intensity of sensory attributes of the products evaluated, guiding future modications of the same characteristics in order to meet consumer demands.Performed by trained people, with ability to discriminate, receiving the name of quantitative descriptive analysis (QDA). Therefore, given the limitations on the number of successive tasting trials and frequent presence of residual eects, planning and analysing the experiments for QDA are fundamentaly important. Thus, in order to solve the problem presented, Williams (1949) presented the Latin square design balanced for neighborhood that, in general, ensuring that the residual eects of the treatments do not in uence the comparison of treatment eects. Appropriate methods of construction, randomization and analysis, using the method of QDA such designs are described and adapted to the problem. Are presented, analyzed and discussed, yet, the results of an experiment of sensory analysis of dierent brandy, planned and conducted by the author. So with these results, we concluded that, for the planning of tests to quantitative descriptive analysis (QDA), the Latin squares balanced for neighborhoods, and repeated the last column, are an important alternative.
|
72 |
Contribuição computacional para o método de mínimos quadrados recursivo e aplicações a múltiplas séries temporais / Computational contribution to the recursive least squares method and applications to multiple time seriesTrespalacios Pérez, Manuel Guillermo, 1983- 22 August 2018 (has links)
Orientador: Gilmar Barreto / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-22T21:44:00Z (GMT). No. of bitstreams: 1
TrespalaciosPerez_ManuelGuillermo_M.pdf: 4849717 bytes, checksum: 481dc5ddc485327961948561d605b96c (MD5)
Previous issue date: 2012 / Resumo: Esta tese apresenta uma contribuição computacional para o método de mínimos quadrados recursivo (MQR) e a sua aplicação às múltiplas séries temporais. O objetivo principal é obter estimativas com menor erro médio final, em comparação com as estimativas resultantes da aplicação do método MQR usual. Os resultados das análises foram obtidos aplicando diferentes modificações e ajustes no modelo de dados de entrada e saída. Estes ajustes procuram ter a quantidade suficiente de dados nas séries temporais de entrada que forneçam a melhor relação com a série temporal de saída. O método desenvolvido usa inicialmente, e de forma independente, o método MQR em duas matrizes geradas pelo modelo de dados de entrada e saída, obtendo assim dois estimadores do mesmo modelo; a primeira matriz é composta pela totalidade dos dados do modelo final e a segunda matriz é gerada por um filtro que utiliza a primeira matriz e a nova observação, filtro especificado no presente trabalho. Os dois estimadores calculados para cada nova observação são comparados aplicando-lhes critérios estabelecidos neste trabalho, gerando assim um terceiro estimador que _e o melhor estimador do modelo de dados de entrada e saída. O método proposto é chamado de método de mínimos quadrados recursivo 3 (MQR3). Finalmente o método MQR3 _e testado com um modelamento de dados de múltiplas séries temporais e seus resultados comparados com os resultados do método MQR. As estatísticas encontradas para diferentes dados de validação mostram estimativas com menor erro médio final para o método MQR3 / Abstract: This thesis presents a computational contribution to the recursive least squares method (RLS) and the application to multiple time series. The main objective is to obtain estimates with lower mean final error, when compared to the estimates resulting from the application of the normal MQR method. The analysis results were obtained by applying different modifications and adjustments to the input and output data model. These adjustments seek to have a sufficient amount of data in the incoming time series to provide the highest ratio with the output time series. The method initially uses, independently, the RLS method in two arrays generated by the input and output data model, thus obtaining two estimators of the same model, the first matrix is composed of all of the data for the final model and the second matrix is generated by a filter that uses the first array and the new observation, filter specified in the present work. The two estimators calculated for each new observation are compared by applying them with criteria established in this work, thereby generating a third which is the best estimator of the input and output model. The proposed method is called recursive least squares method 3 (MQR3). Finally, the method is tested with a MQR3 multiple time series data modeling and the results compared with the results of the RLS method. The statistics found for deferent validation data show estimates with a lower final average error for the MQR3 method / Mestrado / Automação / Mestre em Engenharia Elétrica
|
73 |
Estimação em pesquisas repetidas empregando o filtro GLS / Estimation on repeated surveys using the GLS filterLuna Hernandez, Angela, 1980- 07 May 2012 (has links)
Orientadores: Luiz Koodi Hotta, Fernando Antônio da Silva Moura / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T15:43:54Z (GMT). No. of bitstreams: 1
LunaHernandez_Angela_M.pdf: 2230052 bytes, checksum: 7cee5005f5f1bd9bbdd565de481db0ad (MD5)
Previous issue date: 2012 / Resumo: A dissertação apresenta o processo de estimação em pesquisas repetidas sob o enfoque de séries temporais, empregando Modelos de Espaço de Estados e o filtro dos mínimos quadrados generalizados ou filtro GLS. Este filtro permite o tratamento de modelos com erros de observação autocorrelacionados de forma mais simples do que utilizando o filtro de Kalman e, além disso, possibilita a modelagem conjunta de várias subpopulações ou domínios sob restrições de benchmark obtidas a partir da mesma pesquisa. Isto não só permite manter a coerência entre as estimativas obtidas pelo método, e estimativas agregadas baseadas no planejamento da amostra, como ajuda na proteção contra possíveis erros de especificação dos modelos. Considerando o caso de amostras com rotação, também é abordado o processo de estimação da estrutura de autocorrelação dos erros amostrais empregando o método dos pseudo-erros. Via simulação, é replicado todo o procedimento de estimação, comparando resultados obtidos empregando os filtros GLS e de Kalman. Adicionalmente, é ilustrada a aplicação do filtro sob restrições de benchmark empregando a série de taxa de desemprego da Pesquisa Mensal de Emprego do IBGE, no período de março de 2002 a fevereiro de 2012 / Abstract: This work presents the estimation process in repeated surveys using State Space Models and the generalized linear squares filter, GLS filter, under the time series approach. This filter deals with autocorrelated errors in the observation equation, in a simpler way than the well-known Kalman filter. Additionally, it allows for modeling jointly several domains under benchmark constraints obtained from the same survey. The benchmarking not only achieves coherence between the model-based estimates and the corresponding design-based aggregated estimates, but also provides protection against possible model failures. For the scenario of samples with a rotation scheme, the estimation of the autocorrelation structure of observational errors, using the pseudo-errors method, is also addressed. Simulation are used to compare the GLS and Kalman filter estimators. Moreover, the application of GLS filter under benchmark restrictions is illustrated, using the unemployment rate time serie from the Brazilian monthly labor force survey, from March 2002 to February 2012 / Mestrado / Estatistica / Mestre em Estatística
|
74 |
Modelagem dos acoplamentos mecanicos nos sistemas horizontais rotor-acoplamento-mancalTapia Tadeo, Abdon 03 August 2018 (has links)
Orientador: Katia Lucchesi Cavalca Dedini / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-03T17:11:40Z (GMT). No. of bitstreams: 1
TapiaTadeo_Abdon_D.pdf: 11144730 bytes, checksum: d2baefbd001d76b864b12a454afd5aa6 (MD5)
Previous issue date: 2003 / Doutorado
|
75 |
Adição seqüencial aleatória de elementos escalantes em d dimensôesVIEIRA, Manoel de Carvalho 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T18:04:44Z (GMT). No. of bitstreams: 2
arquivo4846_1.pdf: 4994774 bytes, checksum: b8d7dc360a8364302c2ca758da4e3dd5 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2008 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Um grande número de problemas desafiadores está associado ao estudo de interfaces, pois existem
inúmeros processos físicos, químicos e biológicos complexos que ocorrem por inteiro na
fronteira entre duas fases, ou são apenas iniciados nessa interface. Como exemplos destes,
podemos citar alguns processos que são importantes na indústria e no mundo natural, e que
envolvem a adsorção de moléculas e de partículas com distribuição de tamanhos extremamente
variadas: armazenamento e seqüestro de poluentes, filtragem, passivação de superfícies, processos
cinéticos e de catálise heterogênea, carcinogênese, farmacoterapia. Um dos modelos de
adsorção mais simples e mais estudado é o de adsorção seqüencial aleatória (ASA). Ao modelo
clássico, no qual unidades são adicionadas uma a uma, ao acaso, em um meio, excluindo-se
sobreposições, foram adicionadas moléculas de diferentes tamanhos, gerando dessa forma uma
atmosfera polidispersa. Esta atmosfera é posta em contato com um substrato de área A com
o qual as moléculas interagem através de forças de dispersão de curto alcance. Estamos interessados,
em particular, no caso em que as moléculas são representadas por quadrados de área
a = l2 distribuídos segundo a lei de escala n(a) = n(1)a−t , com 0 ≤ t < ¥. Estudamos três
regras de preenchimento: uma onde precedência é dada aos elementos menores, outra onde o
privilégio é dado aos maiores e ainda outra onde não há preferência à escolha das moléculas.
Para examinar o rendimento da densidade de preenchimento, q (t ), usamos os vínculos: (i) a
soma da área de todas as moléculas, desde as de área unitária, até a de área máxima, amax, é
igual a A e (ii) n(amax) = 1 e (iii) cada molécula tem apenas uma única chance de ser adsorvida.
Cada regra expõe um comportamento distinto, caracterizado por extremos na densidade
de ocupação, no intervalo 1,0 ≤t ≤ 2,0. Entretanto, para t ≈ 6.0 temos a atmosfera próxima
ao limite monodisperso e, para todas as regras usadas, a fração de cobertura converge para um
valor bem abaixo do caso clássico, onde não há limitação para o número de tentativas de adsorção.
Dentre outros resultados, obtivemos também a ocupação para o caso onde as moléculas
são cubos de volume v = ld com d > 2, onde o aumento em d provoca uma mudança quantitativa
na densidade de ocupação, que pode ser associada ao aumento dos graus de liberdade do
sistema
|
76 |
Controle auto-sintonizavel de sistemas rotativos submetidos a demanda de torque variavelBrandão Neto, Jose Ribeiro 03 November 1999 (has links)
Orientador: Euripedes Guilherme Oliveira Nobrega / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-07-25T15:51:49Z (GMT). No. of bitstreams: 1
BrandaoNeto_JoseRibeiro_M.pdf: 6021030 bytes, checksum: 7e193b8527ed83fd0f6e8dcc407d662f (MD5)
Previous issue date: 1999 / Resumo: Encontra-se larga aplicação para a teoria de sistemas lineares com parâmetros concentrados e invariantes no tempo quando se estudam métodos de controle para sistemas mecânicos rotativos. Em aplicações para 'as quais existe um regime de demanda de torque variável, é preciso levar em conta o caráter não estático de alguns parâmetros do sistema, para que se possa projetar controladores que tenham seus desempenhos reais compatíveis com as características de projeto. Fazer o controle da velocidade de rotação em um caso experimental que apresenta um regime de demanda de torque variável é o objeto de estudo utilizado na elaboração deste trabalho. A partir de uma bancada mecânica rotativa, são apresentadas todas as etapas da identificação que serviu como base para o projeto de três tipos de controladores: tacométrico, polinomial e polinomial auto-sintonizável. O projeto dos controladores tinha como objetivo a obtenção de uma velocidade de rotação de saída estabilizada, sendo a avaliação do desempenho feita face a variações na demanda de torque aplicadas aos sistemas controlados. Em especial, deu-se atenção à implementação do método polinomial autosintonizável. A estratégia adaptativa resultou na atuação dentro dos limites desejados, enquanto o sistema era submetido a uma demanda de torque variável. Os resultados experimentais obtidos com um sistema reduzido, somados às simulações com o sistema completo, permitem dizer que controladores auto-sintonizáveis são uma melhoria viável para. controle de sistemas rotativos / Abstract: The theory for time-invariant lumped parameter linear systems (LTI) stands as the basis for control methods applied to rotating mechanical systems. There are some situations, however, for which there is a variable torque load, as in belt conveyors or rolling mills, for example. For those cases it is necessary to design controllers which take into account the nonstationary features of the system, for the real controller performance to cope with the design characteristics. Although feasible in theory and simulation, in the implementation of control schemes which deal with non-LTI systems there are some other constraints involved, as, for instance, the gap between the necessary and the available instrumentation for the real controller to perform as desired. For an experimental case consisting of a rotating system subject to torque load fluctuations, it is presented in this work three rotation regulation control schemes: tachometric, polynomial and self-tuning polynomial. Special attention was given to self-tuning polynomial controllers. The basis for the controller design is the identification of mechanical setup, also developed in the texto The control goal was to regulate the output rotation speed, and the performance index was chosen to be the controlled system output when subjected to torque load variation. The result of the implemented adaptive scheme shows the regulator action to keep the output within the desired levels as the load varies. From alI results, inc1udingthe ones for a reduced experimental system, it is possible to foresee the self-tuning scheme as a feasible improvement for rotating systems' controllers / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
|
77 |
Modelagem de series temporais discretas utilizando modelo nebuloso Takagi-Sugeno / Discrete time series modelling using Takagi-Sugeno fuzzy modelPucciarelli, Amilcar Jose 17 May 2005 (has links)
Orientador: Gilmar Barreto / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-04T17:28:20Z (GMT). No. of bitstreams: 1
Pucciarelli_AmilcarJose_M.pdf: 3241769 bytes, checksum: cfad3cee97a35c84df363b3a8578479d (MD5)
Previous issue date: 2005 / Resumo: Este estudo primeiramente investiga fundamentos teóricos para análise, desenvolvimento e implementação de algoritmos para modelagem de dados de sistemas dinâmicos e de séries temporais com a finalidade de predição. As séries temporais utilizadas são baseadas em dados reais retirados da literatura. A grande vantagem de se modelar uma série temporal e de se prever um dado futuro é poder tomar ações antecipadas sobre ela o quem vem a ser muito útil, por exemplo em controle. O modelo nebuloso Takagi-Sugeno será utilizado na modelagem das séries temporais onde os conjuntos nebulosos do antecedente e os parâmetros do conseqüente são estimados via métodos de agrupamentos e identificação paramétrica, respectivamente / Abstract: This work firstly explores theoretical foundations for analisis, development and implementation of algorithms for data modelling dynamic systems and time series with a prediction goaI. The used time series are based on real data from the literature. The main advantage of time series modelling and forecasting is make antecipated decisions about it, and this becomes very useful, for example, in controI. The Takagi-Sugeno fuzzy model is used for time series modelling where the antecedent fuzzy partitions and the consequent parameters are estimated by clustering methods and parametric identification, respectively / Mestrado / Automação / Mestre em Engenharia Elétrica
|
78 |
[en] AN ALGORITHM FOR CURVE RECONSTRUCTION FROM SPARSE POINTS / [pt] UM ALGORITMO PARA RECONSTRUÇÃO DE CURVAS A PARTIR DE PONTOS ESPARSOSCRISTIANE AZEVEDO FERREIRA 23 January 2004 (has links)
[pt] A reconstrução de curvas e superfícies a partir de pontos
esparsos é um problema que tem recebido bastante atenção
ultimamente. A não-estruturação dos pontos (ou seja,
desconhecimento das relações de vizinhança e proximidade) e
a presença de ruído são dois fatores que tornam este
problema complexo. Para resolver este problema, várias
técnicas podem ser utilizadas, como triangulação de
Delaunay, reconstrução de iso-superfícies através de
Marching Cubes e algoritmos baseados em avanço de
fronteira. O algoritmo proposto consiste de quatro etapas
principais: a primeira etapa é a clusterização dos pontos
de amostragem de acordo com sua localização espacial. A
clusterização fornece uma estrutura espacial para os
pontos, e consiste em dividir o espaço em células
retangulares de mesma dimensão, classificando as células em
cheias (caso possuam pontos de amostragem em seu interior)
ou vazias (caso não possuam pontos de amostragem em seu
interior). A estrutura de dados gerada nesta etapa permite
também obter o conjunto dos pontos de amostragem de cada
uma das células. A segunda etapa é o processamento dos
pontos através de projeções MLS. A etapa de pré-
processameno visa reduzir ruído dos pontos de amostragem,
bem como adequar a densidade de pontos ao nível de detalhe
esperado, adicionando ou removendo pontos do conjunto
inicial. A terceira etapa parte do conjunto das células que
possuem pontos de amostragem em seu interior (células
cheias) e faz a esqueletonização deste conjunto de células,
obtendo, assim, uma aproximação digital para a curva a ser
reconstruída. Este esqueleto é encontrado através do
afinamento topológico das células que possuem pontos. A
implementação do algoritmo de afinamento é feita de modo
que o número de pontos em cada célula seja levado em
consideração, removendo primeiro sempre as células com
menor número de pontos. Na quarta etapa, a reconstrução da
curva é finalmente realizada. Para tal, parte-se do
esqueleto obtido na terceira etapa e constrói-se uma curva
linear por partes, onde cada vértice é obtido a partir da
projeção MLS do ponto médio de cada célula do esqueleto. / [en] Curve and surface reconstruction from sparse data has been
recognized as an important problem in computer graphics.
Non structured data points (i.e., a set of points with no
knowledge of connectivity and proximity) together with
the existence of noise make this problem quite difficult.
In order to solve it, several techniques have been
proposed, such as, some of them are based on Delaunay
triangulation, other are based on implicit surface
reconstruction or on the advancing front techniques. Our
algorithm consists basically in four steps. In the first
step, a clustering procedure is performed in order to group
the sample points according to their spatial location. This
procedure obtains an spatial structure for the points by
subdividing uniformly the plane in rectangular cells, and
classifying them into two categories: empty (when the cell
contains no point inside) or not empty (otherwise). At this
stage, a data structure is built in such way that it is
possible to query the set of sample points that belong to a
given rectangular cell. The second step processes the point
through the Moving Least Squares method. Its objective
is not only to reduce the noise on the data, but also to
adapt the number of point to the desired level, by adding
or removing points from the initial set. The third step
builds the skeleton of the set of cells that have sample
point on its interior. Such skeleton is in fact a digital
approximation for the curve that will be reconstructed. It
is obtained by the use of a topological thinning algorithm,
and its implementation is done in such a way that the
number of points in each cell is considered, for example,
the cells with less number of points are not considered for
the thinning. In the last step, the curve is finally
reconstructed To do so, the skeleton obtained in the third
step is used to construct a piecewise-linear approximation
for the curve, where each vertex is obtained from the MLS
projection on the middle point of the skeleton rectangular
cell.
|
79 |
Métodos locais de integração explícito e implícito aplicados ao método de elementos finitos de alta ordem / Explicit and implicit integration local methods applied to the high-order finite element methodFurlan, Felipe Adolvando Correia 07 July 2011 (has links)
Orientador: Marco Lucio Bittencourt / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-18T15:16:56Z (GMT). No. of bitstreams: 1
Furlan_FelipeAdolvandoCorreia_M.pdf: 1842661 bytes, checksum: 69ed6fc529cf4f757f3c8a2f42e20518 (MD5)
Previous issue date: 2011 / Resumo: O presente trabalho apresenta algoritmos locais de integração explícitos e implícitos aplicados ao método de elementos finitos de alta ordem, baseados na decomposição por autovetores das matrizes de massa e rigidez. O procedimento de solução é realizado para cada elemento da malha e os resultados são suavizados no contorno dos elementos usando a aproximação por mínimos quadrados. Consideraram-se os métodos de diferença central e Newmark para o desenvolvimento dos procedimentos de solução elemento por elemento. No algoritmo local explícito, observou-se que as soluções convergem para as soluções globais obtidas com a matriz de massa consistente. O algoritmo local implícito necessitou de subiterações para alcançar convergência. Exemplos bi e tridimensionais de elasticidade linear e não linear são apresentados. Os resultados mostraram precisão apropriada para problemas com solução analítica. Exemplos maiores também foram apresentados com resultados satisfatórios / Abstract: This work presents explicit and implicit local integration algorithms applied to the high-order finite element method, based on the eigenvalue decomposition of the elemental mass and stiffness matrices. The solution procedure is performed for each element of the mesh and the results are smoothed on the boundary of the elements using the least square approximation. The central difference and Newmark methods were considered for developing the element by element solution procedures. For the local explicit algorithm, it was observed that the solutions converge for the global solutions obtained with the consistent mass matrix. The local implicit algorithm required subiterations to achieve convergence. Two-dimensional and three-dimensional examples of linear and non-linear elasticity are presented. Results showed appropriate accuracy for problems with analytical solution. Larger examples are also presented with satisfactory results / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
|
80 |
Ajuste de curvas por polinômios com foco no currículo do ensino médio / Curve fitting polynomials focusing on high school curriculumSantos, Alessandro Silva, 1973- 27 August 2018 (has links)
Orientador: Lúcio Tunes dos Santos / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-27T11:38:45Z (GMT). No. of bitstreams: 1
Santos_AlessandroSilva_M.pdf: 6474871 bytes, checksum: 351d93b093e44b399a99cd42075cb4b5 (MD5)
Previous issue date: 2015 / Resumo: ste trabalho surge a partir de uma proposta de desenvolvimento do ajuste de curvas com uma abordagem que busca enriquecer o estudo de funções presente no currículo do ensino fundamental e médio. É apresentada ao aluno, desde o aspecto histórico do ajuste, passando pela interpolação de curvas, com foco na interpolação polinomial e o método dos quadrados mínimos, no qual são apresentados, a regressão linear, além de modelos como o ajuste exponencial. É também descrita nesta dissertação uma ferramenta de grande importância no cálculo numérico, o conceito de erro de ajuste, sua definição e forma de estimativa. Na interpolação polinomial, o aluno, ao desenvolver a forma de Lagrange, é estimulado a trabalhar as operações, forma fatorada e interpretação das vantagens do método, como o número e grau de dificuldade de operações realizadas por esse. Interpolação inversa e interpolação de curvas complementam o referido capítulo, em que busca, sempre que possível, utilizar situações problema . O método dos quadrados mínimos estimula o estudante a escolha da função de ajuste e determinação dessa a partir do conceito de minimização do erro. Polinômios de grau um,a regressão linear, e dois são trabalhados devido a sua importância no currículo do ensino médio. Explorando também conceitos como logaritmos e exponenciais, propõe-se o ajuste linear de modelos exponenciais, utilizando situações problema de uma área em evidência no momento, a Biomatemática, modelar dinâmicas de crescimento populacional. Dessa forma o aluno tem contato com formas de previsão que são úteis em importantes áreas como: a saúde pública, a modelagem de epidemias e desenvolvimento de patógenos; planejamento de políticas públicas com a modelagem do crescimento e distribuição da população; comportamento da economia como no caso de previsões de juros futuros. Para que este trabalho possa servir de auxílio aos professores de forma prática e interessante, o capítulo final traz sugestão de problemas na forma de planilha, facilitando sua reprodução e aplicação em sala de aula / Abstract: This study comes from a development proposal curves adjustment with an approach that seeks to enrich the study of present functions in the primary and secondary curriculum. It is presented to the student, from the historical aspect setting, through interpolation curves, focusing on polynomial interpolation and the method of least squares, which presents the linear regression, and models like the exponential fit. It is also described in this work a very important tool in numerical calculation, the concept of setting error, its definition and method of estimation. In polynomial interpolation, the student, to develop the form of Lagrange, is encouraged to work operations, factored form and interpretation of the advantages of the method, as the number and degree of difficulty of tasks for this. Inverse interpolation and interpolation curves complement the chapter on seeking, whenever possible, use problem situations. The method of least squares stimulates the student the choice of setting function and determine this from the concept of minimizing the error. Polynomials of degree one, linear regression, and two are worked because of its importance in the high school curriculum. Also exploring concepts such as logarithms and exponential, it is proposed that the linear fit of exponential models using problem situations evidence in area at the time, the Biomathematics, modeling dynamics of population growth. Thus the student has contact with forms of provision that are useful in important areas such as public health, the modeling of epidemics and development of pathogens; public policy planning with modeling of growth and distribution of population; behavior of the economy as in the case of future interest rate forecasts. For this work may be an aid to teachers in a practical and interesting, the final chapter brings problems suggestion in the form of sheet, facilitating its reproduction and use in the classroom / Mestrado / Matemática em Rede Nacional - PROFMAT / Mestre em Matemática em Rede Nacional - PROFMAT
|
Page generated in 0.0639 seconds