Spelling suggestions: "subject:"exatas""
1 |
Uma aplicação da linguagem Java à computação cientificaVARJÃO, Thiago Fabiano Silva 30 August 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T17:26:20Z
No. of bitstreams: 2
Dissertacao Thiago Varjao.pdf: 1253062 bytes, checksum: 2f617e0f9c6d1b7386384337d729200a (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:24:30Z (GMT) No. of bitstreams: 2
Dissertacao Thiago Varjao.pdf: 1253062 bytes, checksum: 2f617e0f9c6d1b7386384337d729200a (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:24:30Z (GMT). No. of bitstreams: 2
Dissertacao Thiago Varjao.pdf: 1253062 bytes, checksum: 2f617e0f9c6d1b7386384337d729200a (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-08-30 / No mundo do desenvolvimento de software, Java representa um marco. Concebida na
década de 90, alcançou enorme popularidade desde o início de sua utilização. Apresentada
inicialmente como uma linguagem que trabalhava em sites para internet, o que não era
possível na época, seu amadurecimento levou a criação de muitas implementações,
permitindo-lhe, hoje, ser encontrada, além das páginas da internet, em desktops, celulares
e diversos outros dispositivos, provendo grande segurança, sendo utilizada em grandes
bancos e empresas que necessitam de estabilidade e portabilidade, para trafegar grande
quantidade de dados.
Apesar de toda influência da linguagem Java, baseada em seu poder e aplicabilidade,
ela não costuma ser usada na computação científica por ter os típicos problemas computacionais
acentuados pela forte tipagem de seus tipos primitivos, comprometendo sua
aplicação na matemática computacional, mesmo em experimentos feitos, na implementação
de bibliotecas intervalares que usam esses tipos primitivos.
Este trabalho apresenta a extensão de uma biblioteca, fundamentada na matemática intervalar
e aritmética de exatidão máxima, na linguagem Java. Além das funções potência,
raiz quadrada, exponencial, logarítmica e trigonométricas, a nova versão da biblioteca
foi incrementada com cálculo de probabilidades para as variáveis aleatórias Uniforme,
Exponencial e Pareto. Por fim, foi desenvolvida uma proposta de benchmark para comparação
de tecnologias aplicadas à matemática intervalar no qual foram confrontados os
desempenhos da extensão aqui proposta com uma biblioteca intervalar em Python.
|
2 |
Probabilidades autovalidáveis para as variáveis aleatórias exponencial, normal e uniformeSANTOS, Maria das Graças dos 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T18:27:59Z (GMT). No. of bitstreams: 2
arquivo2992_1.pdf: 1862327 bytes, checksum: 80ef0b17798043fbc8ec6c2372a15db2 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / No estudo das variáveis aleatórias contínuas um dos problemas é o cálculo de probabilidades,
visto que é necessário resolver uma integral definida da função densidade que, na
maioria das vezes, não possui primitiva explícita ou cuja primitiva não é simples de obter.
Embora integrais de funções densidade de probabilidade como a exponencial e a uniforme
sejam resolvidas analiticamente seu valor numérico no computador é dado por aproximação,
e portanto afetado por erros de arredondamento ou truncamento. Outras funções densidade
como a normal ou gama, por exemplo, não possuem primitivas na forma analítica, sendo
necessário o uso de integração numérica onde erros de arredondamentos e truncamentos são
propagados devido às operações aritméticas no computador.
O objetivo desta tese é utilizar a Matemática Intervalar e a Aritmética de Exatidão Máxima
para calcular intervalos encapsuladores, ou probabilidades autovalidáveis ou probabilidades
encapsuladas ou ainda probabilidades intervalares para as variáveis Exponencial, Normal
Padrão e Uniforme. No caso da Exponencial e Normal Padrão, o método proposto usou
Simpson Intervalar. A Uniforme, devido ao fato de ter derivada de ordem quatro nula, teve
uma forma diferente de encapsular probabilidades. A metodologia aqui proposta foi implementada
no IntLab. Resultados numéricos ilustraram os teóricos. Adicionalmente, são
mostrados como cálculos autovalidáveis podem ser usados em probabilidade condicional e
independência
|
3 |
Classificação da exatidão de coordenadas obtidas com a fase da portadora L1 do GPS / Accuracy's classification of GPS L1 carrier phase obtained coordinatesMenzori, Mauro 20 December 2005 (has links)
A fixação das duplas diferenças de ambigüidades no processamento dos dados da fase da portadora do Sistema de Posicionamento Global (GPS), é um dos pontos cruciais no posicionamento relativo estático. Esta fixação também é utilizada como um indicador de qualidade e fornece maior segurança quanto ao resultado do posicionamento. No entanto, ela é uma informação puramente estatística baseada na precisão da medida e dissociada da exatidão das coordenadas geradas na solução. A informação sobre a exatidão das coordenadas de pontos medidos através de um vetor simples, é sempre inacessível, independente de a solução ser fixa ou float". Além disso, existe um risco maior em assumir um resultado de solução float", mesmo que ele tenha uma boa, porém, desconhecida exatidão. Por estes motivos a solução float" não é aceita por muitos contratantes de serviços GPS, feitos com a fase da portadora, que exigem uma nova coleta de dados, com o conseqüente dispêndio de tempo e dinheiro. Essa tese foi desenvolvida no sentido de encontrar um procedimento que melhore esta situação. Para tanto, se investigou o comportamento da exatidão em medidas obtidas com a fase da portadora L1 do GPS, monitorando os fatores variáveis presentes neste tipo de medição, o que tornou possível a classificação da exatidão de resultados. Inicialmente, a partir de um conjunto de dados GPS, coletados ao longo dos anos de 2003, 2004 e 2005 em duas bases de monitoramento contínuo da USP, se fez uma análise sistemática do comportamento das variáveis contidas nos dados. A seguir se estruturou um banco de dados, que foi usado como referência na indução de uma árvore de decisão adotada como paradigma. Por último, a partir desta árvore se pôde inferir a exatidão de soluções de posicionamento obtidas com o uso da portadora L1. A validação do procedimento foi feita através da classificação da exatidão de resultados de várias linhas base, coletadas em diferentes condições e locais do estado de São Paulo e do Brasil / The most crucial step on the relative static positioning, when using the Global Positioning System (GPS) carrier phase data, is the fixing ambiguities integer values. The integer ambiguity solution is also used as a quality indicator, ensuring quality to the positioning results. In despite of its capability, the ambiguity fix solution is purely statistical information, based on the precision of measurements and completely apart from the coordinate's solution accuracy. In a single baseline processing, the positioning coordinates accuracy is always inaccessible, no matter if the final solution is float or fixed. In fact, there is some inner risk when using the float solution, although they have a good, nevertheless, unknown accuracy. Probably that is why several GPS job contractors reject the float solutions and require a new data observation, with the consequent time and money loss. This research was developed to improve that situation, investigation the inner accuracy in several GPS L1 carrier phase measurements. Checking the variable factors existing on this kind of measurement it was possible to classify the results accuracy behavior. The investigation was developed in tree steps: started with the systematic analysis of a group of L1 observation data, collected during the years: 2003, 2004 and 2005, followed by the construction of a structured data bank which generated a decision tree, performing the paradigm used to classify the accuracy of any measurement made with GPS L1 carrier phase; and ended with the research validation, through the accuracy classification that was made on several baselines, collected on different conditions and places around the state of São Paulo and Brazil
|
4 |
Classificação da exatidão de coordenadas obtidas com a fase da portadora L1 do GPS / Accuracy's classification of GPS L1 carrier phase obtained coordinatesMauro Menzori 20 December 2005 (has links)
A fixação das duplas diferenças de ambigüidades no processamento dos dados da fase da portadora do Sistema de Posicionamento Global (GPS), é um dos pontos cruciais no posicionamento relativo estático. Esta fixação também é utilizada como um indicador de qualidade e fornece maior segurança quanto ao resultado do posicionamento. No entanto, ela é uma informação puramente estatística baseada na precisão da medida e dissociada da exatidão das coordenadas geradas na solução. A informação sobre a exatidão das coordenadas de pontos medidos através de um vetor simples, é sempre inacessível, independente de a solução ser fixa ou float. Além disso, existe um risco maior em assumir um resultado de solução float, mesmo que ele tenha uma boa, porém, desconhecida exatidão. Por estes motivos a solução float não é aceita por muitos contratantes de serviços GPS, feitos com a fase da portadora, que exigem uma nova coleta de dados, com o conseqüente dispêndio de tempo e dinheiro. Essa tese foi desenvolvida no sentido de encontrar um procedimento que melhore esta situação. Para tanto, se investigou o comportamento da exatidão em medidas obtidas com a fase da portadora L1 do GPS, monitorando os fatores variáveis presentes neste tipo de medição, o que tornou possível a classificação da exatidão de resultados. Inicialmente, a partir de um conjunto de dados GPS, coletados ao longo dos anos de 2003, 2004 e 2005 em duas bases de monitoramento contínuo da USP, se fez uma análise sistemática do comportamento das variáveis contidas nos dados. A seguir se estruturou um banco de dados, que foi usado como referência na indução de uma árvore de decisão adotada como paradigma. Por último, a partir desta árvore se pôde inferir a exatidão de soluções de posicionamento obtidas com o uso da portadora L1. A validação do procedimento foi feita através da classificação da exatidão de resultados de várias linhas base, coletadas em diferentes condições e locais do estado de São Paulo e do Brasil / The most crucial step on the relative static positioning, when using the Global Positioning System (GPS) carrier phase data, is the fixing ambiguities integer values. The integer ambiguity solution is also used as a quality indicator, ensuring quality to the positioning results. In despite of its capability, the ambiguity fix solution is purely statistical information, based on the precision of measurements and completely apart from the coordinate's solution accuracy. In a single baseline processing, the positioning coordinates accuracy is always inaccessible, no matter if the final solution is float or fixed. In fact, there is some inner risk when using the float solution, although they have a good, nevertheless, unknown accuracy. Probably that is why several GPS job contractors reject the float solutions and require a new data observation, with the consequent time and money loss. This research was developed to improve that situation, investigation the inner accuracy in several GPS L1 carrier phase measurements. Checking the variable factors existing on this kind of measurement it was possible to classify the results accuracy behavior. The investigation was developed in tree steps: started with the systematic analysis of a group of L1 observation data, collected during the years: 2003, 2004 and 2005, followed by the construction of a structured data bank which generated a decision tree, performing the paradigm used to classify the accuracy of any measurement made with GPS L1 carrier phase; and ended with the research validation, through the accuracy classification that was made on several baselines, collected on different conditions and places around the state of São Paulo and Brazil
|
5 |
Método para o georreferenciamento de mapas urbanos baseado na atribuição de pesos aos pontos de controle / Method for the georreferencing of urban maps based on the attribution of weights to the control pointsSantos, Adriana Goulart dos 03 September 2009 (has links)
Para o georreferenciamento das informações extraídas dos mapas digitais são usados modelos matemáticos de transformação geométrica de coordenadas. O desempenho da transformação de coordenadas está diretamente relacionado à exatidão das coordenadas dos pontos de controle identificados no mapa, uma vez que devido ao uso da tecnologia GNSS, não existe mais a dificuldade de se medir com exatidão coordenadas de pontos no terreno. Por esta razão, é possível obter um georreferenciamento admissível se as coordenadas dos pontos de controle forem posicionadas com exatidão sobre o mapa. Entretanto, como na maioria dos municípios do Brasil, os mapas são antigos, ou seja, desatualizados, existe uma dificuldade de se localizar pontos de controle bem determinados dentre os elementos geográficos representados no mapa. Dependendo da qualidade do mapa e pelo modo como foram identificadas no mesmo, estas coordenadas podem apresentar diferentes graus de confiabilidade, em função de suas exatidões. Tal fato, se não for levado em conta, pode prejudicar o desempenho da transformação de coordenadas, e dependendo da escala do mapa, inviabilizar um projeto ou estudo que dependa de uma boa exatidão de coordenadas de pontos oriundas de um produto cartográfico georreferenciado. Para evitar que o desempenho da transformação de coordenadas comprometa a fidelidade do georreferenciamento gerado, é importante que cada coordenada receba um peso apropriado de acordo com a sua exatidão. Neste contexto, o principal objetivo desta pesquisa foi desenvolver um método, validado através de um estudo de caso, que proporcionasse em função da exatidão das coordenadas dos pontos de controle identificadas no mapa digital, um resultado de georreferenciamento admissível a partir do modelo matemático empregado para transformação de coordenadas. Para isso, foi estudado como atribuir o peso ao ponto de controle em função da sua exatidão. A partir disso, o desempenho da transformação de coordenadas usando pesos foi avaliado tanto num mapa de calibração, de boa qualidade, quanto num mapa cuja qualidade posicional era desconhecida. Em ambos os mapas foram realizadas as mais variadas avaliações. Em todas as avaliações efetuadas o desempenho da transformação de coordenadas foi melhor quando foram atribuídos pesos aos pontos de controle em função da sua exatidão. Esta pesquisa levantou uma questão até então desconsiderada, que é a importância de se atribuir pesos às coordenadas dos pontos de controle em função da sua exatidão no mapa digital. O resultado do georreferenciamento se torna admissível quando esta consideração é levada em conta. / The mathematical model for the geometric transformation of coordinates is used to georreference information extrated from digital maps. The performance of coordinate transformation models is directly related to accuracy of control points identified in the map, since by means of the utilization of GNSS technology, it is not difficult to measure the coordinates of a point in the ground with accuracy. For this reason, it is possible to obtain a reliable georreferencing if the coordinates of the control points are accurately positioned on a map. However, as most of brazilian municipal districts maps are old and out-of-date, it is difficult to locate a point accurately out of the geographic elements represented in the map. Depending on both the quality of the digital map and the technique used to locate the points, such coordinates may show distinct levels of reliability as a function of their accuracy. If the different accuracy of the control points is not taking into account, the performance of the coordinate transformation model can be reduced. Depending on map scale, this difference can make impracticable a study that depends on a good accuracy of the coordinates of points obtained from a georreferecend cartographic product. In order to avoid that the performance of the coordinate transformation model reduce the reliability of the georreferencing, it is important that each coordinate receives an appropriate weight according to its accuracy. In this context, the objective of this research was to develop a method, validated through a case study, that could impart reliability to georreferencing, as a function of the accuracy of the coordinates of the control points identified on a map, using a mathematical model to coordinate transformation. The key-point is to attribute a weight to each control point related to its accuracy level. The performance of this procedure was evaluated both for a high quality, standard map, and for a map with unknown quality. Different evaluations were performed and the best results were obtained using the procedure of attributing weights to the control points related its accuracy. As a contribution for the academic and technical areas, this research brought light to a question not considered until now, that is the importance of attributing weights to the coordinates of the control points as a function its accuracy in the digital map. Georreferencing becomes more reliable when this question is taken into account.
|
6 |
Controle de qualidade de produtos cartográficos: uma proposta metodológicaNogueira Júnior, João Bosco [UNESP] 06 1900 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:23:31Z (GMT). No. of bitstreams: 0
Previous issue date: 2003-06Bitstream added on 2014-06-13T20:50:28Z : No. of bitstreams: 1
nogueirajunior_jb_me_prud.pdf: 2403875 bytes, checksum: e914bf9771603f7fb120e3e7f9657040 (MD5) / O controle de qualidade (CQ) de dados cartográficos é uma atividade de extrema importância dentro das Ciências Cartográficas. Envolve, em geral, a análise de 7 elementos, dentre eles a qualidade posicional do produto cartográfico. No Brasil, a análise da qualidade posicional é baseada no PEC (Padrão de Exatidão Cartográfica), contida no Decreto Lei 89.817 de 20/06/1984, o qual foi concebido quando se tinha disponível apenas tecnologia para gerar produtos analógicos. A realidade hoje é outra, já que a cartografia digital tem praticamente substituído a analógica. Os objetivos principais deste trabalho são os seguintes: investigar os problemas relacionados ao controle de qualidade tendo em vista a cartografia digital, incluindo o Decreto Lei 89.817; apresentar um estudo detalhado sobre amostragem, visando identificar o número de pontos necessários no controle de qualidade posicional baseado em fundamentos científicos. A metodologia proposta consiste em aplicar estudos sobre amostragem e testes estatísticos de análise de tendência e precisão a dados disponíveis e com isso determinar procedimentos e rotinas ideais para avaliar, não só a qualidade posicional, mas também da linhagem, fidelidade de atributos, completeza, consistência lógica, fidelidade à semântica e temporalidade. / The quality control (CQ) of cartographic data is an activity of great value in the field of Cartographic Sciences. It involves, generally, the analysis of 7 elements, among them the positional quality of the cartographic product. In Brazil, it is based in Brazilian Cartographic Accuracy Standard contained in the Decree Law 89.817 of 06/20/1984, conceived in the moment that only analogical products were available. Nowadays, the reality is different, because the digital cartography has been substituting the analogical one. The main objectives of this work are the following ones: (a) to investigate the problems related for digital cartography’s quality control, including the Decree 89.817; (b) to present a detailed study on sampling, concerning to identify the amount points of necessary in the quality control based on scientific foundations. The proposed methodology consists in applying studies on sampling, statistical tests tendency and precision analysis for available data and, thereafter, to determine procedures and suitable routines for evaluating not only the positional quality but also lineage, atttribute accuracy, completeness, logical consistency, semantic accuracy and temporal information.
|
7 |
Avaliação da qualidade das medições fotogramétricas da versão integrada do software livre E-FOTO. / Evaluation of the quality of photogrametric measurements of the integrated version of the e-photo free software.Marcelo Sales Moffati 10 October 2012 (has links)
Na década de 90 com o aumento da capacidade de processamento e memória dos computadores, surgiu a fotogrametria digital, que tem como objetivo principal o mapeamento automático das feições naturais e artificiais do terreno, utilizando a imagem fotogramétrica digital como fonte primária de dados. As soluções fotogramétricas se tornaram mais compactas e versáteis. A estação fotogramétrica digital educacional E-FOTO é um projeto multidisciplinar, em desenvolvimento no laboratório de Fotogrametria Digital da Universidade do Estado do Rio de Janeiro, que se baseia em dois pilares: autoaprendizado e gratuidade. Este trabalho tem o objetivo geral de avaliar a qualidade das medições fotogramétricas utilizando a versão integrada 1.0β do E-FOTO. Para isso foram utilizados dois blocos de fotografias de regiões distintas do planeta: um bloco de fotografias (2005) do município de Seropédica-RJ e um bloco de fotografias antigas (1953) da região de Santiago de Compostela, na Espanha. Os resultados obtidos com o E-FOTO foram comparados com os resultados do software comercial de fotogrametria digital Leica Photogrammetry Suite (LPS 2010) e com as coordenadas no espaço-objeto de pontos medidos com posicionamento global por satélite (verdade de campo). Sendo possível avaliar as metodologias dos softwares na obtenção dos parâmetros das orientações interior e exterior e na determinação da exatidão das coordenadas no espaço-objeto dos pontos de verificação obtidas no módulo estereoplotter versão 1.64 do E-FOTO. Os resultados obtidos com a versão integrada 1.0β do E-FOTO na determinação dos parâmetros das orientações interior e exterior e no cálculo das coordenadas dos pontos de verificação, sem a inclusão dos parâmetros adicionais e a autocalibração são compatíveis com o processamento realizado com o software LPS. As diferenças dos parâmetros X0 e Y0 obtidos na orientação exterior com o E-FOTO, quando comparados com os obtidos com o LPS, incluindo os parâmetros adicionais e a autocalibração da câmara fotogramétrica, não são significativas. Em função da qualidade dos resultados obtidos e de acordo com o Padrão de Exatidão Cartográfica, seria possível obter um documento cartográfico Classe A em relação à planimetria e Classe B em relação à altimetria na escala 1/10.000, com o projeto Rural e Classe A em relação à planimetria e Classe C em relação à altimetria na escala 1/25.000, com o Projeto Santiago de Compostela. As coordenadas tridimensionais (E, N e H) dos pontos de verificação obtidas fotogrametricamente no módulo estereoplotter versão 1.64 do E-FOTO, podem ser consideradas equivalentes as medidas com tecnologia de posicionamento por satélites. / The acronym E-FOTO stands for an Educational Digital Photogrammetric Workstation. This is a multidisciplinary research project developed in The Rio de Janeiro State University. The E-FOTO project has two pillars: self-learning and gratuity. This dissertation evaluates the quality of the photogrammetric measurements performed by the 1.0β integrated version of the E-FOTO software. Two photogrammetric blocks of airborne imagery taken in different geographic areas were used accordingly: the former photogrammetric dataset is assembled from 12 photograms of the city of Seropédica-RJ, flown in 2005; the second photogrammetric block is a set formed from 6 very old photograms taken in 1953 over the region of Compostela, in Spain. The photogrammetric measurements taken in the E-FOTO were compared with those taken using the Leica Photogrammetry Suite (LPS 2010) commercial software. The ground truth is a set of 30 ground testing points (GCP) measured with a geodetic, dual frequency receiver of the Global Navigation Satellite System (GNSS/GPS) system. A digital photogrammetric mapping procedure was used to evaluate the E-FOTO software. For doing so, both interior and exterior orientation parameters of every image were computed. The photogrammetric computation of object-space coordinates of testing points was performed in the 1.64 version of the stereo plotter module of the E-FOTO. The comparisons of the results of the E-FOTO measurements with those taken from the LPS software can be considered identical, at the confidence level of 95%. The photogrammetric measurements performed in the 1.64 version of the E-FOTO stereoplotter module also match the tridimensional UTM coordinates (E, N and H) of the ground testing points at the same confidence level of 95%.
|
8 |
Avaliação da qualidade das medições fotogramétricas da versão integrada do software livre E-FOTO. / Evaluation of the quality of photogrametric measurements of the integrated version of the e-photo free software.Marcelo Sales Moffati 10 October 2012 (has links)
Na década de 90 com o aumento da capacidade de processamento e memória dos computadores, surgiu a fotogrametria digital, que tem como objetivo principal o mapeamento automático das feições naturais e artificiais do terreno, utilizando a imagem fotogramétrica digital como fonte primária de dados. As soluções fotogramétricas se tornaram mais compactas e versáteis. A estação fotogramétrica digital educacional E-FOTO é um projeto multidisciplinar, em desenvolvimento no laboratório de Fotogrametria Digital da Universidade do Estado do Rio de Janeiro, que se baseia em dois pilares: autoaprendizado e gratuidade. Este trabalho tem o objetivo geral de avaliar a qualidade das medições fotogramétricas utilizando a versão integrada 1.0β do E-FOTO. Para isso foram utilizados dois blocos de fotografias de regiões distintas do planeta: um bloco de fotografias (2005) do município de Seropédica-RJ e um bloco de fotografias antigas (1953) da região de Santiago de Compostela, na Espanha. Os resultados obtidos com o E-FOTO foram comparados com os resultados do software comercial de fotogrametria digital Leica Photogrammetry Suite (LPS 2010) e com as coordenadas no espaço-objeto de pontos medidos com posicionamento global por satélite (verdade de campo). Sendo possível avaliar as metodologias dos softwares na obtenção dos parâmetros das orientações interior e exterior e na determinação da exatidão das coordenadas no espaço-objeto dos pontos de verificação obtidas no módulo estereoplotter versão 1.64 do E-FOTO. Os resultados obtidos com a versão integrada 1.0β do E-FOTO na determinação dos parâmetros das orientações interior e exterior e no cálculo das coordenadas dos pontos de verificação, sem a inclusão dos parâmetros adicionais e a autocalibração são compatíveis com o processamento realizado com o software LPS. As diferenças dos parâmetros X0 e Y0 obtidos na orientação exterior com o E-FOTO, quando comparados com os obtidos com o LPS, incluindo os parâmetros adicionais e a autocalibração da câmara fotogramétrica, não são significativas. Em função da qualidade dos resultados obtidos e de acordo com o Padrão de Exatidão Cartográfica, seria possível obter um documento cartográfico Classe A em relação à planimetria e Classe B em relação à altimetria na escala 1/10.000, com o projeto Rural e Classe A em relação à planimetria e Classe C em relação à altimetria na escala 1/25.000, com o Projeto Santiago de Compostela. As coordenadas tridimensionais (E, N e H) dos pontos de verificação obtidas fotogrametricamente no módulo estereoplotter versão 1.64 do E-FOTO, podem ser consideradas equivalentes as medidas com tecnologia de posicionamento por satélites. / The acronym E-FOTO stands for an Educational Digital Photogrammetric Workstation. This is a multidisciplinary research project developed in The Rio de Janeiro State University. The E-FOTO project has two pillars: self-learning and gratuity. This dissertation evaluates the quality of the photogrammetric measurements performed by the 1.0β integrated version of the E-FOTO software. Two photogrammetric blocks of airborne imagery taken in different geographic areas were used accordingly: the former photogrammetric dataset is assembled from 12 photograms of the city of Seropédica-RJ, flown in 2005; the second photogrammetric block is a set formed from 6 very old photograms taken in 1953 over the region of Compostela, in Spain. The photogrammetric measurements taken in the E-FOTO were compared with those taken using the Leica Photogrammetry Suite (LPS 2010) commercial software. The ground truth is a set of 30 ground testing points (GCP) measured with a geodetic, dual frequency receiver of the Global Navigation Satellite System (GNSS/GPS) system. A digital photogrammetric mapping procedure was used to evaluate the E-FOTO software. For doing so, both interior and exterior orientation parameters of every image were computed. The photogrammetric computation of object-space coordinates of testing points was performed in the 1.64 version of the stereo plotter module of the E-FOTO. The comparisons of the results of the E-FOTO measurements with those taken from the LPS software can be considered identical, at the confidence level of 95%. The photogrammetric measurements performed in the 1.64 version of the E-FOTO stereoplotter module also match the tridimensional UTM coordinates (E, N and H) of the ground testing points at the same confidence level of 95%.
|
9 |
Controle de qualidade de análises de solos da rede Rolas - RS/SC e procedimentos estatísticos alternativos / Quality control of soil analysis fron a network of laboratories and alternatives of statistical proceduresGriebeler, Gustavo 15 February 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Soil chemical analysis must be accurate to avoid errors in the recommendations of lime and fertilizers. The quality control program of the ROLAS-RS/SC network evaluates the analysis accuracy by the distance of a result, through standard deviation, from the median of four soil samples analyzed monthly during a year. This way of judgment requires that data sets must have normal distribution to insure that the median can be considered an estimation of the true value. Outliers should be eliminated because they change the standard deviation spreads and consequently, the accuracy. The mathematical procedure of the accuracy calculation may also allow that asterisks attributed to accurate data might be poised by accurate ones. In addition, the cancellation criteria of the asterisks may be at odds with the uncertainty associated with analytical methods. Therefore, the objective of this work was to check the normal distribution of data sets, identify outliers, evaluate procedures of accuracy calculation and quantify analytically the uncertainty associated to the extractions and determination methods of P and K in order to verify how these aspects may affect laboratories accuracy. The Lilliefors test was run to check the normality and outliers were identified through the quartile test. Procedures to evaluate the accuracy by normality adjustment through outliers elimination of data sets were tested. The substitution of the median by the average as criteria of central reference and calculation of accuracy for each attribute analyzed, instead of annual average accuracy was also tested. Repetitions of the analysis of P and K were carried out to determine the intrinsic variability of the methods. Only 59% of data followed normal distribution, indicating that 41% of the attributes analyzed were considered in disaccordance with statical assumptions. When outliers were eliminated of the data sets, analyzes with normal distribution increased up to 75%, which decreased the number of laboratories that had the minimum accuracy required by the laboratories network. When data sets have normal distribution, the use of the average instead of median showed to be better for the estimation of the true value. Data sets out of the analytical expected range should be eliminated, while those framed within it, if amplitude is less than 1,5 interquartile distances, should not be excluded for the calculation of the accuracy. The procedure to calculate annual average accuracy hide attributes less accurate then the minimal the required. The intrinsic variability associated with the methods of analysis indicates that the criteria for the cancellation of asterisks from P should be reassessed, but the criteria for K seem to be appropriate. Studies on the variability of each analytical method are needed. / Os resultados de análises químicas de amostras de solo devem apresentar exatidão satisfatória para que não sejam induzidos erros de recomendação da adubação e calagem. O controle de qualidade dos laboratórios da rede ROLAS-RS/SC avalia a exatidão média anual dos resultados, sendo a mesma estabelecida em função do afastamento em desvios padrão de um resultado em relação à mediana das análise de cada uma das amostras de solo realizadas ao longo do ano. Nesse sistema, é necessário que os dados apresentem distribuição normal para que a mediana seja assumida como estimativa do valor central das amostras de solos, associada à ausência de outliers, pois estes alteram a magnitude do desvio padrão e, consequentemente, a exatidão. O procedimento matemático de cálculo da exatidão média também pode permitir que os asteriscos recebidos em atributos de análise inexatos sejam contrabalanceados pelos atributos exatos. Além disso, os critérios de cancelamento de asteriscos podem estar em desacordo com a incerteza analítica associada aos métodos. Portanto, o objetivo do trabalho foi testar a distribuição normal dos resultados do controle de qualidade da rede ROLAS-RS/SC, identificar a presença de outliers, avaliar o procedimento de cálculo da exatidão e quantificar analiticamente a incerteza associada aos métodos de extração e determinação de P e K para verificar como estes fatores podem afetar a exatidão dos laboratórios. O teste de Lilliefors foi aplicado para avaliar a normalidade e os outliers foram identificados pelo método dos quartis. Procedimentos para avaliar a exatidão pelo ajuste à distribuição normal através da eliminação dos outliers foram testados, além da substituição da mediana pela média e avaliação do procedimento de cálculo da exatidão por atributo de análise das amostras de solo ao invés da exatidão média de todos os atributos. Repetições das análises de P e K foram realizadas para verificar a variabilidade intrínseca dos métodos. Somente 59% dos dados apresentaram distribuição normal, indicando que 41% das análises foram avaliadas em desacordo com os pressupostos estatísticos. A exclusão dos outliers elevou de 59 para 75% o número de análises com distribuição normal, que tornou o método de avaliação mais rígido, uma vez que diminuiu o número de laboratórios com a exatidão mínima exigida de 85%. Em dados com distribuição normal, a média parece melhor estimar o valor verdadeiro que a mediana. Dados sem distribuição normal por ultrapassarem as faixas de trabalho devem ser eliminados, enquanto aqueles enquadrados dentro das faixas de trabalho e que apresentam amplitude inferior a 1,5 vezes a distância interquartílica não devem ser excluídos para o cálculo da exatidão. O procedimento que calcula a exatidão média anual oculta atributos com exatidão inferior ao mínimo preconizado pelo sistema. A variabilidade intrínseca associada aos métodos de análise indica que os critérios de cancelamento de asteriscos do P devem ser reavaliados enquanto os critérios referentes ao K parecem estar adequados, contudo, deve-se aprofundar os es
|
10 |
Método para o georreferenciamento de mapas urbanos baseado na atribuição de pesos aos pontos de controle / Method for the georreferencing of urban maps based on the attribution of weights to the control pointsAdriana Goulart dos Santos 03 September 2009 (has links)
Para o georreferenciamento das informações extraídas dos mapas digitais são usados modelos matemáticos de transformação geométrica de coordenadas. O desempenho da transformação de coordenadas está diretamente relacionado à exatidão das coordenadas dos pontos de controle identificados no mapa, uma vez que devido ao uso da tecnologia GNSS, não existe mais a dificuldade de se medir com exatidão coordenadas de pontos no terreno. Por esta razão, é possível obter um georreferenciamento admissível se as coordenadas dos pontos de controle forem posicionadas com exatidão sobre o mapa. Entretanto, como na maioria dos municípios do Brasil, os mapas são antigos, ou seja, desatualizados, existe uma dificuldade de se localizar pontos de controle bem determinados dentre os elementos geográficos representados no mapa. Dependendo da qualidade do mapa e pelo modo como foram identificadas no mesmo, estas coordenadas podem apresentar diferentes graus de confiabilidade, em função de suas exatidões. Tal fato, se não for levado em conta, pode prejudicar o desempenho da transformação de coordenadas, e dependendo da escala do mapa, inviabilizar um projeto ou estudo que dependa de uma boa exatidão de coordenadas de pontos oriundas de um produto cartográfico georreferenciado. Para evitar que o desempenho da transformação de coordenadas comprometa a fidelidade do georreferenciamento gerado, é importante que cada coordenada receba um peso apropriado de acordo com a sua exatidão. Neste contexto, o principal objetivo desta pesquisa foi desenvolver um método, validado através de um estudo de caso, que proporcionasse em função da exatidão das coordenadas dos pontos de controle identificadas no mapa digital, um resultado de georreferenciamento admissível a partir do modelo matemático empregado para transformação de coordenadas. Para isso, foi estudado como atribuir o peso ao ponto de controle em função da sua exatidão. A partir disso, o desempenho da transformação de coordenadas usando pesos foi avaliado tanto num mapa de calibração, de boa qualidade, quanto num mapa cuja qualidade posicional era desconhecida. Em ambos os mapas foram realizadas as mais variadas avaliações. Em todas as avaliações efetuadas o desempenho da transformação de coordenadas foi melhor quando foram atribuídos pesos aos pontos de controle em função da sua exatidão. Esta pesquisa levantou uma questão até então desconsiderada, que é a importância de se atribuir pesos às coordenadas dos pontos de controle em função da sua exatidão no mapa digital. O resultado do georreferenciamento se torna admissível quando esta consideração é levada em conta. / The mathematical model for the geometric transformation of coordinates is used to georreference information extrated from digital maps. The performance of coordinate transformation models is directly related to accuracy of control points identified in the map, since by means of the utilization of GNSS technology, it is not difficult to measure the coordinates of a point in the ground with accuracy. For this reason, it is possible to obtain a reliable georreferencing if the coordinates of the control points are accurately positioned on a map. However, as most of brazilian municipal districts maps are old and out-of-date, it is difficult to locate a point accurately out of the geographic elements represented in the map. Depending on both the quality of the digital map and the technique used to locate the points, such coordinates may show distinct levels of reliability as a function of their accuracy. If the different accuracy of the control points is not taking into account, the performance of the coordinate transformation model can be reduced. Depending on map scale, this difference can make impracticable a study that depends on a good accuracy of the coordinates of points obtained from a georreferecend cartographic product. In order to avoid that the performance of the coordinate transformation model reduce the reliability of the georreferencing, it is important that each coordinate receives an appropriate weight according to its accuracy. In this context, the objective of this research was to develop a method, validated through a case study, that could impart reliability to georreferencing, as a function of the accuracy of the coordinates of the control points identified on a map, using a mathematical model to coordinate transformation. The key-point is to attribute a weight to each control point related to its accuracy level. The performance of this procedure was evaluated both for a high quality, standard map, and for a map with unknown quality. Different evaluations were performed and the best results were obtained using the procedure of attributing weights to the control points related its accuracy. As a contribution for the academic and technical areas, this research brought light to a question not considered until now, that is the importance of attributing weights to the coordinates of the control points as a function its accuracy in the digital map. Georreferencing becomes more reliable when this question is taken into account.
|
Page generated in 0.0564 seconds