Spelling suggestions: "subject:"mínimos"" "subject:"denimos""
51 |
Integração de dados altimétricos obtidos através de diferentes técnicas para geração de um novo modelo digital de elevaçãoDruzina, Aline Gomes da Silva January 2007 (has links)
Com o surgimento de novos métodos de extração de dados altimétricos no mercado de geotecnologias a escolha da melhor técnica é um problema que preocupa a maioria dos usuários. Como nenhum dado está isento de erros faz-se necessário propor método que faça uso dessa diversidade de informações minimizando-se o erro. A Colocação por Mínimos Quadrados é uma técnica que permite a integração de dados diferentes em tipo e precisão. Assim, a presente dissertação teve como objetivo a determinação e avaliação de um novo Modelo Digital de Elevação, denominado MDE Híbrido, a partir de dados altimétricos obtidos através de diferentes técnicas: fotogrametria (curvas de nível extraídas de carta 1:50.000), estereoscopia em imagens de um sensor orbital (ASTER) e interferometria de radar (SRTM). Foram selecionadas três áreas no município de Porto Alegre/RS, que apresentam diferentes tipos de relevo: plano, misto e acidentado. Nessas áreas foram obtidos os MDEs a partir de curvas de nível, imagens ASTER e do SRTM com resoluções de 30m, 15m e 90m respectivamente. Uma avaliação pontual foi realizada nos três dados onde pode-se observar que para cada área de estudo um diferente dado apresentou menor Erro Médio Quadrático. Estes três dados foram então integrados utilizando-se a Colocação por Mínimos Quadrados e resolução de 15m. Após avaliação, o MDE Híbrido na Área Plana apresentou acurácia altimétrica igual a 3,493m e na Área Mista o valor de 4,763m o que atende aos requisitos da Classe A do PEC (Padrão de Exatidão Cartográfico) na escala 1:25.000. Já na Área Acidentada o valor encontrado foi de 8,66m atendendo os requisitos da Classe A do PEC na escala 1:50.000. Os resultados práticos alcançados nesta pesquisa mostraram que os dados altimétricos com diferentes resoluções espaciais podem ser integrados, desde que se tenha conhecimento das suas precisões. A resolução espacial de um determinado dado não está relacionada com a precisão deste dado. / With the appearance of new methods of altimetric data extraction, the choice for the best technique is a problem that concerns the majority of users. As no data is error free, it is necessary to propose a methodology that may use this diversity of information as well as minimize errors which arise from each data. The Least-Squares Collocation (CMQ) is a technique that allows the integration of different data according to type and precision. Thus, this paper aimed at determining and evaluating a new Digital Elevation Model called Hybrid MDE, which was obtained through the integration of data from different techniques: Photogrammetry (level curves extracted from maps, Stereoscopy (ASTER) and Interferometry (SRTM). To evaluate the efficiency of this methodology, we selected three areas in the city of Porto Alegre/RS, which showed different types of relief: plain, mixed and rough. In these areas, the MDEs were generated from level curves and ASTER images, which had a resolution of 30 m and 15m respectively; we also included the SRTM data, which show a resolution of 90 m. These three data were then integrated, using the CMQ, and determining a new model with a final resolution of 15 m, which was called Hybrid MDE. Lastly, we realized an evaluation, in which the Hybrid MDE in the Plain Area showed an altimetric accuracy equal to 3,493 m and in the Mixed Area 4, 763, which follows the Class A requisites of the Standard of Cartographic Exactness (PEC) in the scale of 1:25.000. In the Rough Area, the value found was 8, 66 m , following the Class A requisites for PEC in the scale of 1:50.000. The practical results reached in this research show that altimetric data with different spatial resolutions may be integrated, as long as we are aware of its precision.
|
52 |
Aplicação de métodos multivariados para a análise e correlação de amostras apreendidas de cocaínaGrobério, Tatiane Souza 21 January 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Química, Programa de Pós-Graduação em Química, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-05-10T19:26:20Z
No. of bitstreams: 1
2017_TatianeSouzaGrobério.pdf: 7983031 bytes, checksum: 74fbf4855ae64c21f3c468efc2f13060 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-05-25T23:06:06Z (GMT) No. of bitstreams: 1
2017_TatianeSouzaGrobério.pdf: 7983031 bytes, checksum: 74fbf4855ae64c21f3c468efc2f13060 (MD5) / Made available in DSpace on 2017-05-25T23:06:06Z (GMT). No. of bitstreams: 1
2017_TatianeSouzaGrobério.pdf: 7983031 bytes, checksum: 74fbf4855ae64c21f3c468efc2f13060 (MD5)
Previous issue date: 2017-05-25 / É sabido que o abuso de drogas ilícitas constitui um problema social sério e de difícil solução. Dentre as drogas de abuso, a cocaína tem ocupado papel de destaque. A fim de tentar controlar e reduzir a disponibilidade da cocaína no mercado ilícito, diversos organismos de segurança pública nacionais e internacionais buscam estratégias para estabelecer a origem, principais métodos de refino e rotas mais comuns do tráfico de drogas. Tais objetivos podem ser alcançados por meio de investigações policiais e quimicamente através de análises que caracterizem a droga. A caracterização de uma amostra de cocaína é o processo que determina as suas principais propriedades físicas e químicas, revelando similaridades e diferenças entre apreensões. Neste trabalho, a caracterização química da amostra iniciou-se pela determinação da forma de apresentação da cocaína (sal ou base livre), do teor de cocaína, adulterantes e identificação do grau de oxidação em amostras de drogas utilizando espectroscopia de infravermelho por transformada de Fourier com acessório de reflexão total atenuada (FTIR-ATR, do inglês Fourier Transform Infrared Spectroscopy – Attenuated Total Reflectance), que é uma técnica mais simples, rápida, com maior facilidade de aplicação e menor custos que cromatografia gasosa, técnica utilizada em métodos de referência atualmente utilizado pela Polícia Federal Brasileira (PF). Esse método foi desenvolvido e validado com 1085 amostras reais de drogas apreendidas pela PF em todo o Brasil, das quais 500 foram selecionadas para o conjunto de calibração e 585 para o conjunto de validação para uma análise multivariada de regressão por mínimos quadrados parciais (PLSR, do inglês Partial Least Squares Regression). Obteve-se um erro médio de previsão de 3,0% (m/m), precisão de 2,0 e concentração mínima detectável de cocaína de 11,8% (m/m), em uma faixa de concentração variando de 24,2 a 99,9% (m/m). Os resultados indicaram que o método desenvolvido é capaz de discriminar entre o cloridrato de cocaína e as amostras de base livre, quantificar o conteúdo de cocaína e estimar a concentração dos principais adulterantes. Em uma segunda fase do trabalho, a caracterização química das amostras foi utilizada para identificar correlações entre apreensões de cocaína base livre sem o conhecimento a priori sobre a origem das amostras. Para isso, buscou-se determinar os solventes residuais com o uso do headspace associado à cromatografia gasosa e detecção por espectrometria de massas (HS-CG-EM). A análise de dados empregou a análise hierárquica de agrupamento (HCA, do inglês Hierarchical Cluster Analysis) e o quadrado da função cosseno. Estudos estatísticos apontaram valores limites que puderam III discriminar amostras como sendo “ligadas”, ou seja, correlacionadas em relação à forma de produção, permitindo estabelecer ligações entre apreensões de cocaína efetuadas em todo o Brasil. A metodologia desenvolvida para essa discriminação pôde ser considerada promissora, pois não necessita do conhecimento a priori da população de amostras e permite o ajuste dinâmico dos valores limites para diferentes conjuntos. / It is known that illicit drug abuse is a social problem and difficult to solve. Among the drugs of abuse, a cocaine has played a prominent role. In order to try to control and reduce the availability of cocaine in the illicit market, various public and international security agencies are looking for strategies to establish an origin, main refining methods and most common routes of drug trafficking. Such objectives can be seen through software investigations and analyze the aspects that characterize the drug. The characterization of a cocaine sample is the process that determines its main physical and chemical properties, revealing similarities and differences between seizures. In this work, the chemical characterization of the sample was initiated by determining the form of presentation of cocaine (salt or free base), cocaine content, adulterants and identification of the degree of oxidation in drug samples using infrared spectroscopy (FTIR-ATR), which is a simpler, faster, easier to apply and lower cost than gas chromatography, a technique used in reference methods currently used by the Brazilian Federal Police (BPF). This method was developed and validated with 1085 real drug samples seized by PF throughout Brazil, of which 500 were selected for the calibration set and 585 for the validation set for a multivariate analysis of partial least squares regression (PLSR). An average prediction error of 3.0% (w/w), precision of 2.0 and minimum detectable concentration of cocaine of 11.8% (w/w) was obtained in a concentration range ranging from 24.2 to 99.9% (w/w). The results indicated that the method was able to discriminate between cocaine hydrochloride and free base samples, to quantify the cocaine content and to estimate the concentration of the main adulterants. In a second phase of the study, the chemical characterization of the samples was used to identify correlations between free base cocaine seizures without a priori knowledge about the origin of the samples. The aim of this study was to determine residual solvents using headspace associated with gas chromatography and mass spectrometry detection (HS-CG-EM). The data analysis employed the hierarchical cluster analysis (HCA) and the square of the cosine function. Statistical studies pointed to limit values that could discriminate samples as being "linked", that is, correlated in relation to the form of production, allowing establishing links between seizures of cocaine made throughout Brazil. The methodology developed for this discrimination could be considered promising since it does not require a priori knowledge of the population of samples and allows the dynamic adjustment of the limit values for different sets of samples.
|
53 |
Estimação em sistemas com restrições de igualdade e aplicações em robótica móvel e de reabilitação / Estimation in equality constrainted systems and applications in mobile and rehabilitation roboticsScandaroli, Glauco Garcia January 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2009. / Submitted by Raquel Viana (tempestade_b@hotmail.com) on 2010-03-29T14:47:02Z
No. of bitstreams: 1
2009_GlaucoGarciaScandaroli.pdf: 3618541 bytes, checksum: f9331bd3203fbf3e1f36d037b475814a (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-05-21T16:06:39Z (GMT) No. of bitstreams: 1
2009_GlaucoGarciaScandaroli.pdf: 3618541 bytes, checksum: f9331bd3203fbf3e1f36d037b475814a (MD5) / Made available in DSpace on 2010-05-21T16:06:39Z (GMT). No. of bitstreams: 1
2009_GlaucoGarciaScandaroli.pdf: 3618541 bytes, checksum: f9331bd3203fbf3e1f36d037b475814a (MD5)
Previous issue date: 2009 / Esta dissertação é desenvolvida na área de estimação de estados em sistemas com restrições de igualdade. É feito um estudo de sistemas com restrições de igualdade e este trabalho apresenta uma forma de se utilizar sistemas descritores para realizar a estimação neste tipo de sistema. Também é apresentado um novo método para fusão de dados em sistemas com restrições de igualdade e correlação desconhecida. Para a validação destes estudos são desenvolvidas duas aplicações de robótica. Na área de robótica de reabilitação é feita a estimação de postura do pé de uma prótese robótica de perna. São apresentadas formas de se realizar essa tarefa utilizando mínimos quadrados não-lineares e os métodos de estimação com restrição. Os resultados obtidos comprovam que a utilização de estimadores que consideram as restrições melhora o processo de estimação. Na área de robótica móvel é proposto um método eficiente de estimação de localização utilizando teoria Bayesiana e dado as restrições existentes entre as estruturas de um mapa geométrico, avalia-se o método apresentado para fusão de dados em sistemas com restrições de igualdade e correlação desconhecida. Os resultados descritos corroboram que o mapa resultante é melhorado com o uso das restrições de igualdade e do método de localização proposto. ________________________________________________________________________________________ ABSTRACT / This dissertation is developed in the field of state estimation in non-linear systems with equality constraints. Systems with equality constraints are studied, and a method that employs descriptor systems to accomplish the task of estimation in this kind of system is proposed. This manuscript also presents a method for data fusion in systems subject to equality constraints, and unknown correlation. For the validation of the developed studies, this manuscript also describes two applications in the field of robotics. In the field of rehabilitation robotics, this dissertation presents the estimation of a robotic leg prosthesis’ foot with respect to ground. There are presented solutions to perform this task using non-linear least squares, and constrained estimation methods. The obtained results establish that the implementation using estimators that employ equality constraints improves the process of estimation. In the field of mobile robotics, this work proposes an efficient estimation method to accomplish the problem of localization based on the Bayesian theory. Also, given the existing constraints between the geometric map’s structures, the method for data fusion in systems subject to equality constraints and unknown correlation is evaluated. Results described corroborate that the resulting map is improved with the application of such equality constraints and the presented localization method.
|
54 |
Caminhos mínimos com recursos limitados / Resource constrained shortest pathJoel Silva Uchoa 14 November 2012 (has links)
O problema de caminhos mínimos (SP shortest path problem) é frequentemente colo- cado em prática em uma grande variedade de aplicações em diversas áreas. Nessas aplicações geralmente se deseja realizar algum tipo de deslocamento ou transporte entre dois ou mais pontos específicos em uma rede. Tal ação deve ser executada de forma ótima em relação a algum critério, por exemplo o menor custo possível, ou o menor gasto de tempo ou o máximo de confiabilidade/segurança. Na prática, muitas vezes não desejamos apenas o menor custo ou o menor tempo, mas desejamos otimizar uma combinação de diferentes critérios, por exemplo, um caminho que seja rápido e barato. Como não é possível otimizar sobre todos os critérios de uma só vez, nós escolhemos um dos critérios para representar a função custo, que será minimizada, e para os demais critérios representamos como recursos e definimos os limites que julgamos aceitáveis para o consumo de cada um desses recursos. Esta variação é cha- mada de problema de caminhos mínimos com restrições por recursos, ou como preferimos chamar, problema de caminhos mínimos com recursos limitados (RCSP resource constrained shortest path problem), o qual será o objeto de estudo neste trabalho. A adição de restrições por recursos no SP, infelizmente torna o problema NP-difícil, mesmo em grafos acíclicos, com restrições sobre um único recurso, e com todos os consu- mos de recursos positivos. Temos reduções dos famosos problemas N P-difíceis Mochila e Partição para o nosso problema. Em contextos diversos são encontrados problemas de cunho teórico e prático que po- dem ser formulados como problemas de caminhos mínimos com recursos limitados, o que nos motivou a estudá-lo a fim de desenvolver um trabalho que resumisse informações sufi- cientes para auxiliar pesquisadores ou desenvolvedores que tenham interesse no problema. Nós apresentamos aqui, uma detalhada revisão bibliográfica do RCSP, tendo como foco o desenvolvimento de algoritmos exatos para o caso onde possuímos um único recurso e a im- plementação e comparação dos principais algoritmos conhecidos, observando-os em situações práticas. / The problem of choosing a route to a trip, where we want minimize the distance of the path is a major problem in computing. In this basic form, this is the shortest path problem. But sometimes, besides the length we need to consider more parameters for selecting a good path. A common parameters to consider is the consumption of resources in a limited budget. A shortest path with these additional constraints is called resource constrained shortest path - RCSP. This paper has two main objectives: to present a literature review of the problem RCSP, focusing on exact algorithms for the case where we have a single resource, and implement and compare some algorithms, observing them in practical situations. The Shortest Path (SP) problem is among the fundamental problems of computer sci- ence. Its been deeply studied and subject of many publications. Also, many efficient solutions (polynomial time algorithms) are known for this problem. The SP is widely applied in many fields of science, not only computer science. These situations usually need to transport a load between two or more specific spots of a network. This action must be taken optimally regarding to some criterion, for instance the least cost, or the least time or maximum relia- bility. While new solutions for SP were presented, new demands were issued too, with new variations for the problem. One of these variations comes from the fact that, in a real scenario, a combination of many criteria must be optimized, for instance a path with least cost and least time. This problem is known as Multiobjective Shortest Path. Since its not possible to optimize all criteria at once, one of them is chosen to represent the cost function to be minimized and the others to represent resources with defined boundary. This variation, known as Resource Constrained Shortest Path (RCSP), was the object of the present study. By adding resource constraints, the SPbecomes N P-hard, even in acyclic graphs with only one resource constrained and all resource consumption being positive. There are reduc- tions from the famous NP-hard problems Knapsack and Partition to our problem. In many fields, are found theoretical and practical problems that may be expressed as a Resource Constrained Shortest Path Problem, which motivated us to study this problem in order to summarize enough information to researchers and developers involved with this problem. This paper presents a detailed bibliographic revision to RCSP, focusing on the development of exact algorithms for the case when there is only only one resource and on the implementation and comparison of the main known algorithms in practical situations.
|
55 |
Integração de dados altimétricos obtidos através de diferentes técnicas para geração de um novo modelo digital de elevaçãoDruzina, Aline Gomes da Silva January 2007 (has links)
Com o surgimento de novos métodos de extração de dados altimétricos no mercado de geotecnologias a escolha da melhor técnica é um problema que preocupa a maioria dos usuários. Como nenhum dado está isento de erros faz-se necessário propor método que faça uso dessa diversidade de informações minimizando-se o erro. A Colocação por Mínimos Quadrados é uma técnica que permite a integração de dados diferentes em tipo e precisão. Assim, a presente dissertação teve como objetivo a determinação e avaliação de um novo Modelo Digital de Elevação, denominado MDE Híbrido, a partir de dados altimétricos obtidos através de diferentes técnicas: fotogrametria (curvas de nível extraídas de carta 1:50.000), estereoscopia em imagens de um sensor orbital (ASTER) e interferometria de radar (SRTM). Foram selecionadas três áreas no município de Porto Alegre/RS, que apresentam diferentes tipos de relevo: plano, misto e acidentado. Nessas áreas foram obtidos os MDEs a partir de curvas de nível, imagens ASTER e do SRTM com resoluções de 30m, 15m e 90m respectivamente. Uma avaliação pontual foi realizada nos três dados onde pode-se observar que para cada área de estudo um diferente dado apresentou menor Erro Médio Quadrático. Estes três dados foram então integrados utilizando-se a Colocação por Mínimos Quadrados e resolução de 15m. Após avaliação, o MDE Híbrido na Área Plana apresentou acurácia altimétrica igual a 3,493m e na Área Mista o valor de 4,763m o que atende aos requisitos da Classe A do PEC (Padrão de Exatidão Cartográfico) na escala 1:25.000. Já na Área Acidentada o valor encontrado foi de 8,66m atendendo os requisitos da Classe A do PEC na escala 1:50.000. Os resultados práticos alcançados nesta pesquisa mostraram que os dados altimétricos com diferentes resoluções espaciais podem ser integrados, desde que se tenha conhecimento das suas precisões. A resolução espacial de um determinado dado não está relacionada com a precisão deste dado. / With the appearance of new methods of altimetric data extraction, the choice for the best technique is a problem that concerns the majority of users. As no data is error free, it is necessary to propose a methodology that may use this diversity of information as well as minimize errors which arise from each data. The Least-Squares Collocation (CMQ) is a technique that allows the integration of different data according to type and precision. Thus, this paper aimed at determining and evaluating a new Digital Elevation Model called Hybrid MDE, which was obtained through the integration of data from different techniques: Photogrammetry (level curves extracted from maps, Stereoscopy (ASTER) and Interferometry (SRTM). To evaluate the efficiency of this methodology, we selected three areas in the city of Porto Alegre/RS, which showed different types of relief: plain, mixed and rough. In these areas, the MDEs were generated from level curves and ASTER images, which had a resolution of 30 m and 15m respectively; we also included the SRTM data, which show a resolution of 90 m. These three data were then integrated, using the CMQ, and determining a new model with a final resolution of 15 m, which was called Hybrid MDE. Lastly, we realized an evaluation, in which the Hybrid MDE in the Plain Area showed an altimetric accuracy equal to 3,493 m and in the Mixed Area 4, 763, which follows the Class A requisites of the Standard of Cartographic Exactness (PEC) in the scale of 1:25.000. In the Rough Area, the value found was 8, 66 m , following the Class A requisites for PEC in the scale of 1:50.000. The practical results reached in this research show that altimetric data with different spatial resolutions may be integrated, as long as we are aware of its precision.
|
56 |
Comparação entre algoritmos de mínimos quadrados e de zona mínima para desvios de circularidadeBarczak, Andre Luis Chautard 21 July 2018 (has links)
Orientador: Olivio Novaski / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-07-21T09:32:28Z (GMT). No. of bitstreams: 1
Barczak_AndreLuisChautard_M.pdf: 15952062 bytes, checksum: 8ec5bdbaac3a4524ed2c27aa30e9ad62 (MD5)
Previous issue date: 1996 / Resumo: Em metrologia é muito importante poder determinar com exatidão os desvios de circularidade de uma peça. Existem sempre erros associados a essas medições, causados por inúmeras fontes. Em máquinas automatizadas ou auxiliadas por computador uma dessas fontes de erro é o próprio algoritmo utilizado, questão só levantada recentemente. O objetivo principal deste trabalho é determinar o comportamento de algoritmos de zona mínima de tolerância para desvios de circularidade, mais corretos do ponto de vista conceituai, em comparação com algoritmos dos mínimos quadrados, mais utilizados na prática. Para analisar
as diferenças entre os resultados foi utilizada simulação em computador. Os dois algoritmos foram desenvolvidos em linguagem C e um terceiro programa gerou aleatoriamente milhares de conjuntos de pontos semelhantes aos obtidos em uma máquina de medir por coordenadas, ü algoritmo de mínima zona de tolerância (MZC) escolhido foi o dos diagramas de Voronoi, pela garantia de otimização do resultado, baixa complexidade e facilidade de implementação. Para simular uma situação semelhante à encontrada normalmente numa inspeção de indústria, variou-se os valores de desvios de circularidade, números de pontos do conjunto e raios da peça dentro dos intervalos usuais. Os resultados mostraram que o algoritmo de Voronoi obtém um par de círculos concêntricos com separação igual ou menor que o dos mínimos quadrados. A diferença entre os resultados pode chegar a 30% ou mais, dependendo da distribuição dos pontos no conjunto. O comportamento dos desvios máximos entre os resultados pode ser determinado e depende do número de pontos amostrados da peça, e do intervalo de circularidade que está sendo medido. Para os valores simulados o resultado é independente do raio da peça. No caso da circularidade, o algoritmo dos diagramas de Voronoi mostrou um
comportamento estável com um bom tempo de execução num ambiente industrial. Para algumas máquinas de medir por coordenadas (MMCs) utilizadas atualmente na indústria a incerteza é muito maior que o erro máximo causado pela escolha do algoritmo para determinados valores de circularidade e número de pontos do conjunto. Nestes casos o uso dos mínimos quadrados é justificável. Quando somente este último estiver disponível em determinada máquina, o erro máximo esperado pode ser diminuído aumentado-se o número de pontos do conjunto. Para máquinas dedicadas ou MMCs mais precisas, que têm uma incerteza
menor, os algoritmos são fontes de erros significativos. Os algoritmos MZC são necessários nestes casos. Pelos resultados obtidos pode-se presumir que o desenvolvimento de algoritmos de zona mínima de tolerância para outros desvios de forma em três dimensões, tais como cilindricidade, serão de grande interesse na área metrológica. / Abstract: The precisely assessment of out-of-roundness is an important issue in metrology. There are always errors associated with these measurements, caused by different sources. The computer aided measuring machines have an additional source of error, the algorithm itself. This subject was only recently in flux. The main objective in this work is to determine the behavior of minimum zone center (MZC), conceptually the most correct, in comparison with least square center (ESC), used in practice. In order to analyze the differences between the algorithms' answers, computer simulations were used. Both algorithms were developed in C language, and a third program generated thousands of sets similar to that obtained through
CMMs. The algorithm of Voronoi diagrams, MZC type, was developed. The choice's reasons were the optimization assurance, low complexity and implementation facility. The out-of- roundness values, numbers of points of the set and the radius of the workpiece were varied to simulate industry environment. The results showed that the Voronoi algorithm gets a pair of concentric circles with separation equal or less then the LSC one. The difference between the results could be about 30% or greater, depending on the points' distribution. The behavior of the maximum errors between results depends on the number of points and the value interval of out-of-roundness. for some CMMs used in industry, the uncertainty of the machine is greater then the maximum error caused by algorithm's choice. This is true for various number of
points and out-of-roundness. In these cases the LSC is allowed. Also when only LSC is available, the maximum expected error could be minimized increasing the number of points. For dedicated machines and CMMs more accurate, the algorithm is an important source of error. The MZC algorithms are always necessary in these cases. through the results one could presume that the development of other minimum zone algorithms, such as cilindricity and sphericity, will be very important for metrology in future. / Mestrado
|
57 |
Problemas de variação aplicados a agropecuária / Variation problems applied to agriculturalXavier, Carlos Melo 31 October 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-11-30T18:02:13Z
No. of bitstreams: 2
Dissertação - Carlos Melo Xavier - 2017.pdf: 2364045 bytes, checksum: 0f8f1169d23664e8e6325df48f9c3c50 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Rejected by Luciana Ferreira (lucgeral@gmail.com), reason: Na citação use Dissertação (Mestrado em Matemática em Rede Nacional) e não Dissertação (Mestrado profissional em Matemática em Rede Nacional) on 2017-12-04T10:45:53Z (GMT) / Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-12-04T15:54:13Z
No. of bitstreams: 2
Dissertação - Carlos Melo Xavier - 2017.pdf: 2364045 bytes, checksum: 0f8f1169d23664e8e6325df48f9c3c50 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-12-06T11:38:56Z (GMT) No. of bitstreams: 2
Dissertação - Carlos Melo Xavier - 2017.pdf: 2364045 bytes, checksum: 0f8f1169d23664e8e6325df48f9c3c50 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-12-06T11:38:56Z (GMT). No. of bitstreams: 2
Dissertação - Carlos Melo Xavier - 2017.pdf: 2364045 bytes, checksum: 0f8f1169d23664e8e6325df48f9c3c50 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-10-31 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / The agribusiness sector contributes significantly to the development of the microregion
in Jataí-GO, and educational institutions, such as the Federal University of Goiás
- UFG, have the role of articulating this sector through the research and courses offered
for agrarian areas. In this context the present study proposed a methodology in order
to integrate knowledge of calculus with practical situations experienced by agronomy
professionals, zootechnics and veterinary, in their respective working environments. We
emphasize the importance of the modeling and optimization concept, as well as the use
of some Calculation tools, such as Maxima and Minima, for applications in the agribusiness
environment. The calculation study in courses directed to Agricultural Science
is seen by some as a freshman students knowledge difficult to learn due to barriers in
the perception of the practical applicability of this content. Through this obstacle, the
work will serve as the driver of practical studies applied in this area. / O setor do agronegócio contribui significativamente para o desenvolvimento da microrregião
de Jataí-GO. As instituições de ensino como a Universidade Federal de Goiás
- UFG possuem o papel de articular esse setor através dos cursos ofertados e das pesquisas
voltadas às áreas de agrárias. Neste contexto o presente trabalho propôs uma
metodologia com a finalidade de integrar os conhecimentos do Cálculo, com situações
práticas vivenciadas pelos profissionais da área de agronomia, zootecnia e veterinária,
em seus respectivos ambientes de trabalho. Ressaltamos a importância do conceito de
modelagem e otimização, bem como o uso de algumas ferramentas do Cálculo, como
Máximos e Mínimos, para aplicações no agronegócio. O estudo do Cálculo nos cursos
direcionados às Ciências Agrárias é visto, por alguns discentes ingressantes, como um
tema difícil de se aprender, devido às barreiras na percepção da aplicabilidade prática
deste conteúdo. Mediante este entrave, o trabalho servirá como direcionador de estudos
práticos aplicados na área.
|
58 |
Um estudo sobre otimização de funções reais de várias variáveis: teoria e aplicações / A study on optimization of real functions of several variables: theory and applicationsPriscila Cordero Leal 20 February 2017 (has links)
Otimizar significa determinar estratégias para se obter as melhores alternativas em busca dos objetivos traçados. Em matemática, otimização refere-se ao estudo de problemas em que se deseja maximizar ou minimizar uma determinada função através da escolha sistemática dos valores de variáveis dentro de um conjunto viável. Um dos métodos de se determinar os máximos e mínimos de funções é utilizando-se o cálculo em várias variáveis, o qual será abordado nesse trabalho. Possíveis situações relacionadas ao cotidiano são apresentadas para que o processo de otimização possa ser abordado por alunos do Ensino Médio. / Optimizing means determing strategies to obtain better alternatives in the search of the stated aims. In Mathematics, optimization refers to the study of problems in which we want to maximize or to minimize a certain function through a systematic choice of variable values in a viable set. One of the methods used to determine the maximums and the minimums of functions is using calculus in several variables, what will be discussed in this work. Possible situations related to daily life are presented so that the optimization process can be studied by high school students.
|
59 |
Contribuição computacional para o método de mínimos quadrados recursivo e aplicações a múltiplas séries temporais / Computational contribution to the recursive least squares method and applications to multiple time seriesTrespalacios Pérez, Manuel Guillermo, 1983- 22 August 2018 (has links)
Orientador: Gilmar Barreto / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-22T21:44:00Z (GMT). No. of bitstreams: 1
TrespalaciosPerez_ManuelGuillermo_M.pdf: 4849717 bytes, checksum: 481dc5ddc485327961948561d605b96c (MD5)
Previous issue date: 2012 / Resumo: Esta tese apresenta uma contribuição computacional para o método de mínimos quadrados recursivo (MQR) e a sua aplicação às múltiplas séries temporais. O objetivo principal é obter estimativas com menor erro médio final, em comparação com as estimativas resultantes da aplicação do método MQR usual. Os resultados das análises foram obtidos aplicando diferentes modificações e ajustes no modelo de dados de entrada e saída. Estes ajustes procuram ter a quantidade suficiente de dados nas séries temporais de entrada que forneçam a melhor relação com a série temporal de saída. O método desenvolvido usa inicialmente, e de forma independente, o método MQR em duas matrizes geradas pelo modelo de dados de entrada e saída, obtendo assim dois estimadores do mesmo modelo; a primeira matriz é composta pela totalidade dos dados do modelo final e a segunda matriz é gerada por um filtro que utiliza a primeira matriz e a nova observação, filtro especificado no presente trabalho. Os dois estimadores calculados para cada nova observação são comparados aplicando-lhes critérios estabelecidos neste trabalho, gerando assim um terceiro estimador que _e o melhor estimador do modelo de dados de entrada e saída. O método proposto é chamado de método de mínimos quadrados recursivo 3 (MQR3). Finalmente o método MQR3 _e testado com um modelamento de dados de múltiplas séries temporais e seus resultados comparados com os resultados do método MQR. As estatísticas encontradas para diferentes dados de validação mostram estimativas com menor erro médio final para o método MQR3 / Abstract: This thesis presents a computational contribution to the recursive least squares method (RLS) and the application to multiple time series. The main objective is to obtain estimates with lower mean final error, when compared to the estimates resulting from the application of the normal MQR method. The analysis results were obtained by applying different modifications and adjustments to the input and output data model. These adjustments seek to have a sufficient amount of data in the incoming time series to provide the highest ratio with the output time series. The method initially uses, independently, the RLS method in two arrays generated by the input and output data model, thus obtaining two estimators of the same model, the first matrix is composed of all of the data for the final model and the second matrix is generated by a filter that uses the first array and the new observation, filter specified in the present work. The two estimators calculated for each new observation are compared by applying them with criteria established in this work, thereby generating a third which is the best estimator of the input and output model. The proposed method is called recursive least squares method 3 (MQR3). Finally, the method is tested with a MQR3 multiple time series data modeling and the results compared with the results of the RLS method. The statistics found for deferent validation data show estimates with a lower final average error for the MQR3 method / Mestrado / Automação / Mestre em Engenharia Elétrica
|
60 |
Estimação em pesquisas repetidas empregando o filtro GLS / Estimation on repeated surveys using the GLS filterLuna Hernandez, Angela, 1980- 07 May 2012 (has links)
Orientadores: Luiz Koodi Hotta, Fernando Antônio da Silva Moura / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T15:43:54Z (GMT). No. of bitstreams: 1
LunaHernandez_Angela_M.pdf: 2230052 bytes, checksum: 7cee5005f5f1bd9bbdd565de481db0ad (MD5)
Previous issue date: 2012 / Resumo: A dissertação apresenta o processo de estimação em pesquisas repetidas sob o enfoque de séries temporais, empregando Modelos de Espaço de Estados e o filtro dos mínimos quadrados generalizados ou filtro GLS. Este filtro permite o tratamento de modelos com erros de observação autocorrelacionados de forma mais simples do que utilizando o filtro de Kalman e, além disso, possibilita a modelagem conjunta de várias subpopulações ou domínios sob restrições de benchmark obtidas a partir da mesma pesquisa. Isto não só permite manter a coerência entre as estimativas obtidas pelo método, e estimativas agregadas baseadas no planejamento da amostra, como ajuda na proteção contra possíveis erros de especificação dos modelos. Considerando o caso de amostras com rotação, também é abordado o processo de estimação da estrutura de autocorrelação dos erros amostrais empregando o método dos pseudo-erros. Via simulação, é replicado todo o procedimento de estimação, comparando resultados obtidos empregando os filtros GLS e de Kalman. Adicionalmente, é ilustrada a aplicação do filtro sob restrições de benchmark empregando a série de taxa de desemprego da Pesquisa Mensal de Emprego do IBGE, no período de março de 2002 a fevereiro de 2012 / Abstract: This work presents the estimation process in repeated surveys using State Space Models and the generalized linear squares filter, GLS filter, under the time series approach. This filter deals with autocorrelated errors in the observation equation, in a simpler way than the well-known Kalman filter. Additionally, it allows for modeling jointly several domains under benchmark constraints obtained from the same survey. The benchmarking not only achieves coherence between the model-based estimates and the corresponding design-based aggregated estimates, but also provides protection against possible model failures. For the scenario of samples with a rotation scheme, the estimation of the autocorrelation structure of observational errors, using the pseudo-errors method, is also addressed. Simulation are used to compare the GLS and Kalman filter estimators. Moreover, the application of GLS filter under benchmark restrictions is illustrated, using the unemployment rate time serie from the Brazilian monthly labor force survey, from March 2002 to February 2012 / Mestrado / Estatistica / Mestre em Estatística
|
Page generated in 0.0389 seconds