• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 249
  • 7
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 262
  • 201
  • 167
  • 147
  • 52
  • 50
  • 49
  • 41
  • 39
  • 37
  • 36
  • 32
  • 32
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Projeção de preços do minério de ferro: uma análise do comportamento e da eficiência da projeção no curto prazo

Hasenclever, Ana Paula Camara Leal de Sá Lucas 24 August 2015 (has links)
Submitted by Ana Paula Camara Leal de Sá Lucas Hasenclever (anapaulasalucas@gmail.com) on 2016-10-25T21:46:24Z No. of bitstreams: 1 Dissertação_Ana Paula Sá Lucas Hasenclever_assinada.pdf: 919502 bytes, checksum: be5b234607137d01de09758fc414a429 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2016-11-01T15:25:00Z (GMT) No. of bitstreams: 1 Dissertação_Ana Paula Sá Lucas Hasenclever_assinada.pdf: 919502 bytes, checksum: be5b234607137d01de09758fc414a429 (MD5) / Approved for entry into archive by Maria Almeida (maria.socorro@fgv.br) on 2016-11-08T13:29:50Z (GMT) No. of bitstreams: 1 Dissertação_Ana Paula Sá Lucas Hasenclever_assinada.pdf: 919502 bytes, checksum: be5b234607137d01de09758fc414a429 (MD5) / Made available in DSpace on 2016-11-08T13:30:10Z (GMT). No. of bitstreams: 1 Dissertação_Ana Paula Sá Lucas Hasenclever_assinada.pdf: 919502 bytes, checksum: be5b234607137d01de09758fc414a429 (MD5) Previous issue date: 2015-08-24 / Propomos um modelo econométrico reduzido para explicar a variação mensal dos preços de minério de ferro para o período entre janeiro de 2008 e julho de 2015 e o utilizamos para realizar projeções mensais a partir de janeiro de 2012. Em seguida, foram realizadas quarenta e quatro projeções de seis meses cada usando um VAR reduzido para estimar regressores incluídos no modelo. Os resultados mostram que os preços gerados pelo modelo objetivo deste estudo apresentam incerteza inferior aos preços gerados através do random walk. Estes resultados se mantêm para o horizonte de seis meses considerado. Adicionalmente, a média de preços de minério de ferro para 2015, considerando os preços realizados entre janeiro e julho e a projeção para os últimos cinco meses corresponde à média das expectativas do mercado, proporcionando uma tese para relatórios de banco.
42

Quadrados latinos balanceados para a vizinhança - planejamento e análise de dados sensoriais por meio da ADQ / Latin squares balanced for the neighborhood - planning and analysis of sensory data obtained by the QDA.

Sanches, Paula da Fonte 25 January 2010 (has links)
As avaliações sensoriais tomam cada vez mais sua posição de importância dentro dos centros produtores e vendedores de alimentos e de outros produtos. Nestes, o objetivo final dos trabalhos realizados nas áreas de desenvolvimento, produção e `marketing\' e o consumidor, cuja avaliação se baseia, principalmente, na aceitabilidade e custos dos produtos. Nesses experimentos, uma serie de tratamentos e dada para cada provador, e um problema relevante e que a variável resposta dependa não só do tratamento aplicado atualmente, mas também do anterior seguido a ele, chamados de efeitos residuais. Visando uma melhor qualidade do produto, analises cada vez mais rigorosas são exigidas. Assim, um método frequentemente utilizado e o da analise descritiva, que tem por objetivo descrever e avaliar a intensidade dos atributos sensoriais dos produtos avaliados, orientando eventuais modificações das características das mesmas a m de atender as exigências do consumidor. Realizada por pessoas treinadas, com habilidade de discriminar, recebendo o nome de analise descritiva quantitativa (ADQ). Consequentemente, dadas as limitações quanto ao numero de provas sucessivas de degustação e presença frequente de efeitos residuais, o planejamento e analise dos experimentos para ADQ adquirem importância fundamental. Assim, de modo a resolver o problema apresentado, Williams (1949) apresentou os delineamentos quadrados latinos balanceados para vizinhança que, de forma geral, garantem que os efeitos residuais dos tratamentos não exerçam influência sobre a comparação dos efeitos dos tratamentos. Métodos adequados de construção, aleatorizacão e analise, utilizando o método ADQ de tais delineamentos são descritos e adaptados para o problema. São apresentados, analisados e discutidos, ainda, os resultados de um experimento de analise sensorial de diferentes cachaças, planejado e conduzido pela autora. Assim, com os resultados obtidos, concluiu-se que, para o planejamento de ensaios para a análise descritiva quantitativa (ADQ), os quadrados latinos balanceados para vizinhança, com a última coluna repetida, são uma alternativa importante / The sensory evaluations are increasingly taking its position of importance within the centers producers and sellers of food and other products. In these, the ultimate goal of the work in the areas of development, production and \'marketing\' is the consumer, whose evaluation is based mainly on the acceptability and cost of products. In these experiments, a series of treatments is given to each panelist, and a major problem is that the response depends not only on the treatment currently applied, but on the former followed by him. For a better quality product, analyzes increasingly stringent are required. Therefore, a method often used is descriptive analysis, which aims to describe and evaluate the intensity of sensory attributes of the products evaluated, guiding future modications of the same characteristics in order to meet consumer demands.Performed by trained people, with ability to discriminate, receiving the name of quantitative descriptive analysis (QDA). Therefore, given the limitations on the number of successive tasting trials and frequent presence of residual eects, planning and analysing the experiments for QDA are fundamentaly important. Thus, in order to solve the problem presented, Williams (1949) presented the Latin square design balanced for neighborhood that, in general, ensuring that the residual eects of the treatments do not in uence the comparison of treatment eects. Appropriate methods of construction, randomization and analysis, using the method of QDA such designs are described and adapted to the problem. Are presented, analyzed and discussed, yet, the results of an experiment of sensory analysis of dierent brandy, planned and conducted by the author. So with these results, we concluded that, for the planning of tests to quantitative descriptive analysis (QDA), the Latin squares balanced for neighborhoods, and repeated the last column, are an important alternative.
43

On the regularization of the recursive least squares algorithm. / Sobre a regularização do algoritmo dos mínimos quadrados recursivos.

Tsakiris, Manolis 25 June 2010 (has links)
This thesis is concerned with the issue of the regularization of the Recursive Least-Squares (RLS) algorithm. In the first part of the thesis, a novel regularized exponentially weighted array RLS algorithm is developed, which circumvents the problem of fading regularization that is inherent to the standard regularized exponentially weighted RLS formulation, while allowing the employment of generic time-varying regularization matrices. The standard equations are directly perturbed via a chosen regularization matrix; then the resulting recursions are extended to the array form. The price paid is an increase in computational complexity, which becomes cubic. The superiority of the algorithm with respect to alternative algorithms is demonstrated via simulations in the context of adaptive beamforming, in which low filter orders are employed, so that complexity is not an issue. In the second part of the thesis, an alternative criterion is motivated and proposed for the dynamical regulation of regularization in the context of the standard RLS algorithm. The regularization is implicitely achieved via dithering of the input signal. The proposed criterion is of general applicability and aims at achieving a balance between the accuracy of the numerical solution of a perturbed linear system of equations and its distance from the analytical solution of the original system, for a given computational precision. Simulations show that the proposed criterion can be effectively used for the compensation of large condition numbers, small finite precisions and unecessary large values of the regularization. / Esta tese trata da regularização do algoritmo dos mínimos-quadrados recursivo (Recursive Least-Squares - RLS). Na primeira parte do trabalho, um novo algoritmo array com matriz de regularização genérica e com ponderação dos dados exponencialmente decrescente no tempo é apresentado. O algoritmo é regularizado via perturbação direta da inversa da matriz de auto-correlação (Pi) por uma matriz genérica. Posteriormente, as equações recursivas são colocadas na forma array através de transformações unitárias. O preço a ser pago é o aumento na complexidade computacional, que passa a ser de ordem cúbica. A robustez do algoritmo resultante ´e demonstrada via simula¸coes quando comparado com algoritmos alternativos existentes na literatura no contexto de beamforming adaptativo, no qual geralmente filtros com ordem pequena sao empregados, e complexidade computacional deixa de ser fator relevante. Na segunda parte do trabalho, um critério alternativo ´e motivado e proposto para ajuste dinâmico da regularização do algoritmo RLS convencional. A regularização é implementada pela adição de ruído branco no sinal de entrada (dithering), cuja variância é controlada por um algoritmo simples que explora o critério proposto. O novo critério pode ser aplicado a diversas situações; procura-se alcançar um balanço entre a precisão numérica da solução de um sistema linear de equações perturbado e sua distância da solução do sistema original não-perturbado, para uma dada precisão. As simulações mostram que tal critério pode ser efetivamente empregado para compensação de números de condicionamento (CN) elevados, baixa precisão numérica, bem como valores de regularização excessivamente elevados.
44

Uso de imagens digitais para a determinação da concentração e do comprimento de onda de analitos de interesse ambiental

BARROS, Juan Antônio Vázquez de Almeida 26 July 2013 (has links)
A presente dissertação apresenta uma alternativa ao uso de espectrofotômetros aplicados a determinação do comprimento de onda de absorção máxima e concentração de substâncias que absorvem radiação eletromagnética na região do visível (400-800 nm), empregando-se imagens digitais para tal fim. Câmeras digitais foram usadas para obter todas as imagens digitais, sendo utilizada em um primeiro momento uma câmera e como segunda abordagem, visando diminuir os custos e aumentar a portabilidade, uma web cam. As variáveis fotográficas foram obtidas utilizando-se um software desenvolvido utilizando a linguagem JAVA®. Ferramentas matemáticas foram desenvolvidas utilizando-se o Método dos Mínimos Quadrados (MMQ), considerando as variáveis fotográficas: R (Vermelho), G (Verde), B (Azul), H (Matiz), S (Saturação) e Br (Brilho). Utilizando-se ANOVA verificou-se que todos os modelos foram viáveis em um nível de confiança de 95%. Para verificar a exatidão, em um primeiro momento o método foi aplicado em três amostras comerciais: Isotônico (Amarelo Tartrazina), Antiácido (Amarelo Crepúsculo) e Suplemeto de Ferro (Ferro total). Também foram coletadas amostras de água de mina, represas e corregos da região focando a determinação dos seguintes analitos: Alumínio, Ferro, Fósforo e Nitrito. Os limites de detecção (LOD) e de quantificação (LOQ) obtidos foram semelhantes aos resultados obtidos pelos métodos de referência. Foram efetuados testes de adição e recuperação, sendo as taxas de recuperação obtidas entre 93,50 e 108,30%. A precisão foi avaliada com o coeficiente de variação (n=3), sendo menor que 1,53%. As determinações com o método proposto e o método espectrofotométrico foram concordantes (teste-t pareado com 95% de confiabilidade). Em conclusão, este é um método simples e versátil, e mostra que imagens digitais podem ser aplicadas em determinações de concentração e ou comprimento de onda de máximo de absorção de analitos coloridos em solução aquosa. / This dissertation presents an alternative to the use of spectrophotometers applied to determine the wavelength of maximum absorbance and concentration of substances that absorb electromagnetic radiation in the visible region (400-800 nm), using for this purpose digital images. Digital cameras were used to obtain all the digital images being used at first a camera and, as second approach in order to reduce costs and increase portability, a web cam. The photographic variables were obtained using software developed using JAVA®. Mathematical tools were developed using the least squares method (LSM), considering the photographic variables: R (Red), G (Green), B (blue), H (Hue), S (Saturation) and Br (Brightness). Thru the use of ANOVA all models were feasible on a confidence level of 95%. To verify accuracy, at first, the method was applied to three commercial samples: Isotonic (Yellow Tartrazine), Antacid (Sunset Yellow) and Suplemeto Iron (Iron total). Also, samples of mine water, dams and streams of the region focusing on the determination of the following analytes: Aluminum, Iron, Phosphorus and Nitrite. The limits of detection (LOD) and quantitation (LOQ) were similar to results obtained by standard methods. Tests of addition and recovery, were performed and the recovery rates obtained between 93.50 and 108.30%. Precision was evaluated as the relative standard deviation (n = 3), being less than 1.53%. Determinations with the proposed method and the spectrophotometric method were concordant (paired t-test with 95% confidence). In conclusion, this is a simple and versatile method and shows that the use of digital images may be applied to determinate the concentration and or the wavelength of maximum absorption of analytes in colored aqueous solution. / Fundação de Amparo à Pesquisa do Estado de Minas Gerais - FAPEMIG
45

Filtro de partículas aperfeiçoado para estimação de postura de robôs móveis.

Paulo Roberto Araújo da Silva 08 March 2006 (has links)
Nesta tese é apresentado um Filtro de Partículas Aperfeiçoado para o rastreamento de postura de robôs móveis utilizando odometria e leituras ambientais laser. O método consiste em realizar um predição da postura do robô utilizando o modelo cinemático (odométrico) para, com a postura predita, eliminar o clutter utilizando-se de janelas de validação. Com a Range-Weighted Hough Transform associada a um método de mínimos quadrados, obtêm-se, então, os parâmetros do modelo de observações que,subsequentemente, serão utilizados para atualizar a postura predita. As observações são assimiladas pelo algoritmo de estimação de postura que utiliza um método de amostragem por importância com reamostragem (ISIR) ou filtro de Partículas. O filtro proposto utiliza uma função de importância localmente otimizada e reamostragem de mínima variância para combater a degeneração de partículas, e um passo de movimento MCMC para restaurar a diversidade amostral perdida depois da reamostragem. Os resultados experimentais foram obtidos utilizando-se dados simulados e reais. O desempenho do filtro foi comparado com o filtro Bootstrap e filtro Estendido de Kalman. Para os dados simulados, as curvas de erro quadrático médio foram comparadas ao Limite Inferior de Cramér-Rao Posterior (PCRLB). Para os dados reais um erro médio temporal, baseado em uma trajetória de referência, foi estimado. Adicionalmente, também foram medidos os respectivos tempos de processamento dos algoritmos com diferentes números de partículas. Os resultados mostram que o filtro proposto obteve melhores desempenhos que os filtros Bootstrap e Estendido de Kalman. Mais ainda, devido ao seu bom desempenho com número reduzido de partículas, o filtro de Partículas Aperfeiçoado apresentou um tempo de processamento que possibilita implementação prática em cenários realísticos.
46

Calibração multivariada para análises espectrofotométricas empregando pacotes wavelets e mínimos quadrados-parciais.

Rodrigo Neves Figueiredo dos Santos 15 December 2006 (has links)
A espectroscopia por infravermelho tem se mostrado um poderoso instrumento no estudo de propriedades físicas de combustíveis, obtendo cada vez mais destaque no monitoramento da qualidade dos mesmos. Contudo, os instrumentos de laboratório não produzem estas propriedades como resposta, requerendo por sua vez a calibração de modelos que relacionem as medidas espectrais obtidas com os parâmetros de interesse. Neste trabalho, é estudado um método de calibração multivariada em que o conjunto de espectros original é pré-processado via transformação com pacotes wavelet, com estrutura de decomposição otimizada. Para tal fim, emprega-se um funcional custo adequado à natureza do problema. São avaliadas ainda algumas técnicas comuns para a filtragem, bem como alguns critérios de seleção de variáveis presentes na literatura. Tendo em vista a validação do método estudado, apresenta-se um estudo de caso envolvendo a determinação de massa específica e temperaturas para 10%, 50% e 90% de evaporados em amostras de gasolina. Neste estudo são comparados o desempenho dos modelos de Mínimos-Quadrados Parciais pré-processados com transformada de pacotes wavelet, transformada wavelet convencional e sem pré-processamento dos espectros. É apresentado ainda, um estudo comparativo entre os critérios de seleção de coeficientes por correlação e variância. Os resultados datécnica com transformada de pacotes wavelet, associada à seleção de coeficientes por correlação com a propriedade de interesse, se mostram superiores aos obtidos com as outras técnicas, propiciando uma melhora expressiva na capacidade preditiva dos modelos obtidos por Mínimos-Quadrados Parciais.
47

Identificação em tempo real do modelo aerodinâmico de uma aeronave por meio da aplicação do método de mínimos quadrados ortogonais recursivo

João Vitor Zanette 15 December 2015 (has links)
O presente trabalho tem como objetivo o desenvolvimento de uma ferramenta para a identificação do modelo aerodinâmico de uma aeronave em tempo real, com vistas à melhoria da eficiência de campanhas de ensaios em voo relacionadas à aquisição de dados para levantamento e validação de modelos. A ferramenta apresentada neste trabalho, denominada RealSysId, baseia-se no método de mínimos quadrados ortogonais recursivo e foi desenvolvida em ambiente MATLAB 7.8.0 R2009. O método aplicado torna-se vantajoso, pois possibilita avaliar não somente as estimativas dos parâmetros, mas também a estrutura do modelo aerodinâmico em tempo real. Essa característica permite a avaliação de resultados de modo imediato e, assim, a tomada de decisão e a coordenação para repetição de manobras podem ser realizadas em tempo real, aumentando a eficiência da campanha de ensaios em voo. Neste trabalho, uma descrição da ferramenta é apresentada e três estudos de caso são discutidos. O primeiro deles apresenta a validação do algoritmo e apresenta uma comparação dos resultados obtidos pelo método dos mínimos quadrados ortogonais clássico e recursivo. O segundo exemplo discute a aplicabilidade e importância do fator de esquecimento no processo de identificação em tempo real quando da avaliação de sistemas variantes no tempo. Por fim, o terceiro estudo de caso apresenta uma análise da carga computacional demandada pela ferramenta para a seleção do modelo aerodinâmico de forma recursiva em função da quantidade de regressores candidatos utilizados pelo usuário.
48

Ajuste do modelo de Orskov & McDonald (1979) a dados de degradação ruminal in situ utilizando mínimos quadrados ponderados / Orskov and McDonald?s model adjustment to ruminal degradation in situ data using weighed least squares

Soares, Ana Paula Meira 27 September 2007 (has links)
O presente trabalho teve como principal objetivo o estudo das diferenças entre os resultados obtidos com o uso do método dos mínimos quadrados ponderados e de mínimos quadrados ordinários, no ajuste do modelo de Orskov e McDonald (1979) aos dados de degradação da matéria seca (MS) e fibra em detergente ácido (FDA) em novilhos Nelore fistulados, utilizando a técnica in situ. Foram utilizados os dados de um experimento delineado em quadrado latino 4x4 (quatro animais e quatro períodos) cujos tratamentos foram: dieta com sal de cálcio de ácidos graxos e monensina (A); dieta com caroço de algodão e monensina (B); dieta controle com monensina (C) e dieta com caroço de algodão sem monensina (D). As medidas de degradabilidade foram coletadas em oito ocasiões (0, 3, 6, 12, 24, 48, 72 e 96 horas). Como essas medidas são obtidas repetidamente no mesmo animal, espera-se que as variâncias das respostas nas diversas ocasiões não sejam iguais. Nas análises propostas foram utilizados os dados originais (MS e FDA) e os dados corrigidos para os efeitos de animal e de período. De uma forma geral, observou-se que o uso do método dos mínimos quadrados ponderados alterou os resultados das análises, produzindo um aumento das estatísticas dos testes e uma alteração da significância dessas estatísticas, por conta da retirada do efeito de animal e período dos dados originais e ao uso do método de mínimos quadrados ponderados, com a ponderação feita pelo inverso da variância dos dados em cada ocasião. / The present work had as main objective the study of the differences between the results obtained using the method of the weighted least squares and ordinary least squares, in the fit of the model of Orskov and McDonald (1979) to the data of degradation of the dry matter (MS) and acid detergent fiber (ADF) in fistulated Nelore steers, using the technique in situ. The data of a delineated 4x4 Latin Square had been used (four animals and four periods) whose treatments had been: diet with calcium salt of fatty acid and monensin (A); diet with whole cottonseed and monensin (B); diet has control with monensin (C) and diet with whole cottonseed without monensin (D). The measures of degradability had been collected in eight occasions (0, 3, 6, 12, 24, 48, 72 and 96 hours). As these measures they are gotten repeatedly in the same animal, expects that the variances of the answers in the diverse occasions are not equal. In the analyses proposals the original data (MS and ADF) and the data corrected for the period and animal effect had been used. Of a general form, it was observed that the use of the method of the weighted least squares modified the results of the analyses, producing an increase of the statisticians of the tests and an alteration of the significance of these statisticians, for account of the withdrawal of the animal effect and period of the original data and to the use of the method of weighted least squares, with the weighted made for the inverse one of the variance of the given ones in each occasion.
49

On the regularization of the recursive least squares algorithm. / Sobre a regularização do algoritmo dos mínimos quadrados recursivos.

Manolis Tsakiris 25 June 2010 (has links)
This thesis is concerned with the issue of the regularization of the Recursive Least-Squares (RLS) algorithm. In the first part of the thesis, a novel regularized exponentially weighted array RLS algorithm is developed, which circumvents the problem of fading regularization that is inherent to the standard regularized exponentially weighted RLS formulation, while allowing the employment of generic time-varying regularization matrices. The standard equations are directly perturbed via a chosen regularization matrix; then the resulting recursions are extended to the array form. The price paid is an increase in computational complexity, which becomes cubic. The superiority of the algorithm with respect to alternative algorithms is demonstrated via simulations in the context of adaptive beamforming, in which low filter orders are employed, so that complexity is not an issue. In the second part of the thesis, an alternative criterion is motivated and proposed for the dynamical regulation of regularization in the context of the standard RLS algorithm. The regularization is implicitely achieved via dithering of the input signal. The proposed criterion is of general applicability and aims at achieving a balance between the accuracy of the numerical solution of a perturbed linear system of equations and its distance from the analytical solution of the original system, for a given computational precision. Simulations show that the proposed criterion can be effectively used for the compensation of large condition numbers, small finite precisions and unecessary large values of the regularization. / Esta tese trata da regularização do algoritmo dos mínimos-quadrados recursivo (Recursive Least-Squares - RLS). Na primeira parte do trabalho, um novo algoritmo array com matriz de regularização genérica e com ponderação dos dados exponencialmente decrescente no tempo é apresentado. O algoritmo é regularizado via perturbação direta da inversa da matriz de auto-correlação (Pi) por uma matriz genérica. Posteriormente, as equações recursivas são colocadas na forma array através de transformações unitárias. O preço a ser pago é o aumento na complexidade computacional, que passa a ser de ordem cúbica. A robustez do algoritmo resultante ´e demonstrada via simula¸coes quando comparado com algoritmos alternativos existentes na literatura no contexto de beamforming adaptativo, no qual geralmente filtros com ordem pequena sao empregados, e complexidade computacional deixa de ser fator relevante. Na segunda parte do trabalho, um critério alternativo ´e motivado e proposto para ajuste dinâmico da regularização do algoritmo RLS convencional. A regularização é implementada pela adição de ruído branco no sinal de entrada (dithering), cuja variância é controlada por um algoritmo simples que explora o critério proposto. O novo critério pode ser aplicado a diversas situações; procura-se alcançar um balanço entre a precisão numérica da solução de um sistema linear de equações perturbado e sua distância da solução do sistema original não-perturbado, para uma dada precisão. As simulações mostram que tal critério pode ser efetivamente empregado para compensação de números de condicionamento (CN) elevados, baixa precisão numérica, bem como valores de regularização excessivamente elevados.
50

A matemática por trás do sudoku, um estudo de caso em análise combinatória / The mathematics behind sudoku, a case study in combinatorial analysis

Santos, Ricardo Pessoa dos 29 November 2017 (has links)
Submitted by Ricardo Pessoa Dos Santos null (ricopessoa@gmail.com) on 2017-12-14T17:35:33Z No. of bitstreams: 1 Dissertação.pdf: 4489608 bytes, checksum: 2c9d751844c4b178546f2154b0718705 (MD5) / Approved for entry into archive by Elza Mitiko Sato null (elzasato@ibilce.unesp.br) on 2017-12-14T18:53:30Z (GMT) No. of bitstreams: 1 santos_rp_me_sjrp.pdf: 4489608 bytes, checksum: 2c9d751844c4b178546f2154b0718705 (MD5) / Made available in DSpace on 2017-12-14T18:53:30Z (GMT). No. of bitstreams: 1 santos_rp_me_sjrp.pdf: 4489608 bytes, checksum: 2c9d751844c4b178546f2154b0718705 (MD5) Previous issue date: 2017-11-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Iremos apresentar a um grupo de alunos do Ensino Médio da rede pública de Ensino do Estado de São Paulo, o mundialmente conhecido quebra cabeças Sudoku, e realizar com eles várias atividades buscando apresentá-lo como subsídio didático na aprendizagem de conceitos matemáticos importantes, além de proporcionar oportunidades de aprimorar a concentração e o raciocínio lógico. Iremos explorar conceitos matemáticos ocultos por trás de suas linhas, colunas e blocos, partindo de uma das primeiras perguntas que podem ser feitas: Qual é a quantidade total de jogos válidos existentes? Para responde-la, será proposto a realização de diversas atividades, primeiramente com um Shidoku (matriz 4 × 4), em seguida iremos calcular o total desses jogos. O tamanho reduzido dessa grade, facilita os cálculos manuais, permitindo visualizar e compreender o processo utilizado, aproveitando para introduzir o princípio fundamental da contagem. A discussão principal desse trabalho, concentra-se na exploração de um método para se determinar a quantidade de jogos válidos existentes para um Sudoku, e para isso, utilizaremos as demonstrações de Bertrand Felgenhauer e Frazer Jarvis. Também apresentaremos um método capaz de gerar uma grade completa de Sudoku, partindo de uma matriz quadrada de ordem 3, que em seguida, será utilizada para gerar uma solução de Sudoku ortogonal. Finalizando, iremos apresentar e explorar algumas formas diferenciadas para os quebra cabeças Sudoku, mostrando variações no formato dos blocos, no tamanho das grades e uma variação que utiliza formas geométricas em suas pistas (Shapedoku). Como desafio de leitura, pesquisa e aprofundamento, será proposto o problema ainda em aberto do número mínimo de dados iniciais para se ter um jogo válido. Podemos afirmar que um dos objetivos esperados, é que tal atividade venha interferir na concentração e raciocínio, auxiliando nas atividades propostas nesse trabalho e que possam ser utilizadas em outros problemas do cotidiano. / We will present to a group of high school students of the public Education of Sao Paulo state, the world-known puzzle Sudoku, and perform with them several activities seeking to present it as a didactic subsidy in the learning important mathematical concepts, besides opportunities to enhance concentration and logical reasoning. We will explore hidden mathematical concepts behind their lines, columns and blocks, starting from one of the rst questions that can be asked: What is the total number of valid games in existence? To answer this question, it will be proposed to perform several activities, rst with a Shidoku (4 × 4 matrix), then we will calculate the total of these games. The reduced size of this grid facilitates manual calculations, allowing to visualize and understand the process used, taking advantage to introduce the fundamental principle of counting. The main discussion of this paper focuses on the exploration of a method to determine the amount of valid games existing for a Sudoku, and for that, we will use the demonstrations of Bertrand Felgenhauer and Frazer Jarvis. We will also present a method capable of generating a complete Sudoku grid, starting from a square matrix of order 3, which will then be used to generate an orthogonal Sudoku solution. Finally, we will introduce and explore some di erent shapes for the Sudoku puzzle, showing variations in the shape of the blocks, the size of the grids and a variation that uses geometric forms in their tracks (Shapedoku). As a challenge for reading, searching and deepening, the open problem of the minimum number of initial data to have a valid game will be proposed. We can say that one of the expected objectives is that such activity will interfere in concentration and reasoning, helping in the activities proposed in this paper and that can be used in other daily problems. / 3107510001F5

Page generated in 0.0786 seconds