Spelling suggestions: "subject:"deoria dos error"" "subject:"ateoria dos error""
1 |
Generalizações de J-divergencia e a probabilidade de erroFrancisco, Maria de Graça January 1983 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Florianópolis, 1983. / Made available in DSpace on 2013-12-05T19:40:08Z (GMT). No. of bitstreams: 1
97839.pdf: 882489 bytes, checksum: e8c4a7e44402515b00bb2fc6735f9feb (MD5)
Previous issue date: 1983 / Medidas como J-divergência e o Coeficiente de Bhattacharyya, foram usadas[5],[6],[7],[16] com o objetivo de determinar uma melhor aproximação das regras de decisão. No desenvolver deste trabalho, estudamos cotas inferiores e superiores para regras de decisão, em função de J-divergência e o Coeficiente de Bhattacharyya, obtidas por vários pesquisadores; em seguida determinamos generalizações de J-divergência e obtemos cotas para probabilidade de função dessas generalizações.
|
2 |
Uma contribuição ao problema de seleção de modelos neurais usando o princípio de máxima correlação dos erros / A contribution to the problem of selection of neural models using the beginning of maximum correlation of the errorsMedeiros, Cláudio Marques de Sá 08 May 2008 (has links)
MEDEIROS, C. M. S. Uma contribuição ao problema de seleção de modelos neurais usando o princípio de máxima correlação dos erros. 2008. 145 f. Tese (Doutorado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2008. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2016-04-04T13:09:55Z
No. of bitstreams: 1
2008_tese_cmsmedeiros.pdf: 1938025 bytes, checksum: 3736bbbf2ed1d1c5db4f522e6cd100e5 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2016-04-06T17:28:37Z (GMT) No. of bitstreams: 1
2008_tese_cmsmedeiros.pdf: 1938025 bytes, checksum: 3736bbbf2ed1d1c5db4f522e6cd100e5 (MD5) / Made available in DSpace on 2016-04-06T17:28:37Z (GMT). No. of bitstreams: 1
2008_tese_cmsmedeiros.pdf: 1938025 bytes, checksum: 3736bbbf2ed1d1c5db4f522e6cd100e5 (MD5)
Previous issue date: 2008-05-08 / This thesis proposes a new pruning method which eliminates redundant weights in a multilayer perceptron (MLP). Conventional pruning techniques, like Optimal Brain Surgeon (OBS) and Optimal Brain Damage (OBD), are based on weight sensitivity analysis, which requires the inversion of the error Hessian matrix of the loss function (i.e. mean squared error). This inversion is specially susceptible to numerical problems due to poor conditioning of the Hessian matrix and demands great computational efforts. Another kind of pruning method is based on the regularization of the loss function, but it requires the determination of the regularization parameter by trial and error. The proposed method is based on "Maximum Correlation Errors Principle" (MAXCORE). The idea in this principle is to evaluate the importance of each network connection by calculating the cross correlation among errors in a layer and the back-propagated errors in the preceding layer, starting from the output layer and working through the network until the input layer is reached. The connections which have larger correlations remain and the others are pruned from the network. The evident advantage of this procedure is its simplicity, since matrix inversion or parameter adjustment are not necessary. The performance of the proposed method is evaluated in pattern classifi cation tasks and the results are compared to those achieved by the OBS/OBD techniques and also by regularization-based method. For this purpose, arti ficial data sets are used to highlight some important characteristics of the proposed methodology. Furthermore, well known benchmarking data sets, such as IRIS, WINE and DERMATOLOGY, are also used for the sake of evaluation. A real-world biomedical data set related to pathologies of the vertebral column is also used. The results obtained show that the proposed method achieves equivalent or superior performance compared to conventional pruning methods, with the additional advantages of low computational cost and simplicity. The proposed method also presents e ficient behavior in pruning the input units, which suggests its use as a feature selection method. / Propõe-se nesta tese um método de poda de pesos para redes Perceptron Multicamadas (MLP). Técnicas clássicas de poda convencionais, tais como Optimal Brain Surgeon(OBS) e Optimal Brain Damage(OBD), baseiam-se na análise de sensibilidade de cada peso da rede, o que requer a determinação da inversa da matriz Hessiana da função-custo. A inversão da matriz Hessiana, além de possuir um alto custo computacional, é bastante susceptível a problemas numéricos decorrentes do mal-condicionamento da mesma. Métodos de poda baseados na regularização da função-custo, por outro lado, exigem a determinação por tentativa-e-erro de um parâmetro de regularização. Tendo em mente as limitações dos métodos de poda supracitados, o método proposto baseia-se no "Princípio da Máxima Correlação dos Erros" (MAXCORE). A idéia consiste em analisar a importância de cada conexão da rede a partir da correlação cruzada entre os erros em uma camada e os erros retropropagados para a camada anterior, partindo da camada de saída em direção à camada de entrada. As conexões que produzem as maiores correlações tendem a se manter na rede podada. Uma vantagem imediata deste procedimento está em não requerer a inversão de matrizes, nem um parâmetro de regularização. O desempenho do método proposto é avaliado em problemas de classi ficação de padrões e os resultados são comparados aos obtidos pelos métodos OBS/OBD e por um método de poda baseado em regularização. Para este fi m, são usados, além de dados arti cialmente criados para salientar características importantes do método, os conjuntos de dados bem conhecidos da comunidade de aprendizado de máquinas: Iris, Wine e Dermatology. Utilizou-se também um conjunto de dados reais referentes ao diagnóstico de patologias da coluna vertebral. Os resultados obtidos mostram que o método proposto apresenta desempenho equivalente ou superior aos métodos de poda convencionais, com as vantagens adicionais do baixo custo computacional e simplicidade. O método proposto também mostrou-se bastante agressivo na poda de unidades de entrada (atributos), o que sugere a sua aplicação em seleção de características.
|
3 |
Controle de qualidade no ajustamento de observações geodésicasKlein, Ivandro January 2012 (has links)
Após o ajustamento de observações pelo método dos mínimos quadrados (MMQ) ter sido realizado, é possível a detecção e a identificação de erros não aleatórios nas observações, por meio de testes estatísticos. A teoria da confiabilidade faz uso de medidas adequadas para quantificar o menor erro detectável em uma observação, e a sua influência sobre os parâmetros ajustados, quando não detectado. A teoria de confiabilidade convencional foi desenvolvida para os procedimentos de teste convencionais, como o data snooping, que pressupõem que apenas uma observação está contaminada por erros grosseiros por vez. Recentemente foram desenvolvidas medidas de confiabilidade generalizadas, relativas a testes estatísticos que pressupõem a existência, simultânea, de múltiplas observações com erros (outliers). Outras abordagens para o controle de qualidade do ajustamento, alternativas a estes testes estatísticos, também foram propostas recentemente, como por exemplo, o método QUAD (Quasi-Accurate Detection of outliers method). Esta pesquisa tem por objetivo fazer um estudo sobre o controle de qualidade do ajustamento de observações geodésicas, por meio de experimentos em uma rede GPS (Global Positioning System), utilizando tanto os métodos convencionais quanto o atual estado da arte. Desta forma, foram feitos estudos comparativos entre medidas de confiabilidade convencionais e medidas de confiabilidade generalizadas para dois outliers simultâneos, bem como estudos comparativos entre o procedimento data snooping e testes estatísticos para a identificação de múltiplos outliers. Também se investigou como a questão das variâncias e covariâncias das observações, bem como a geometria/configuração da rede GPS em estudo, podem influenciar nas medidas de confiabilidade, tanto na abordagem convencional, quanto na abordagem generalizada. Por fim, foi feito um estudo comparativo entre o método QUAD e os testes estatísticos para a identificação de erros. / After the adjustment of observations has been carried out by Least Squares Method (LSM), it is possible to detect and identify non-random errors in the observations using statistical tests. The reliability theory makes use of appropriate measures to quantify the minimal detectable bias (error) in an observation, and its influence on the adjusted parameters, if not detected. The conventional reliability theory has been developed for conventional testing procedures such as data snooping, which assumes that only one observation is contaminated by errors at a time. Recently, generalized measures of reliability has been developed, relating to statistical tests that assumes the existence, simultaneous, of multiple observations with errors (outliers). Other approaches to the quality control of the adjustment, alternatives to these statistical tests, were also proposed recently, such as the QUAD method (Quasi-Accurate Detection of outliers method). The goal of this research is to make a study about the quality control of the adjustment of geodetic observations, by means of experiments in a GPS (Global Positioning System) network, using both conventional methods and the current state of the art. In this way, comparisons were made between conventional reliability measures and generalized measures of reliability for two outliers, as well as comparisons between the data snooping procedure and statistical tests to identify multiple outliers. It was also investigated how the variances and covariances of the observations, as well as the geometry/configuration of the GPS network in study, can influence the measures of reliability, both in the conventional approach and in the generalized approach. Finally, a comparison was made between the QUAD method and the statistical tests to identify outliers (errors).
|
4 |
Controle de qualidade no ajustamento de observações geodésicasKlein, Ivandro January 2012 (has links)
Após o ajustamento de observações pelo método dos mínimos quadrados (MMQ) ter sido realizado, é possível a detecção e a identificação de erros não aleatórios nas observações, por meio de testes estatísticos. A teoria da confiabilidade faz uso de medidas adequadas para quantificar o menor erro detectável em uma observação, e a sua influência sobre os parâmetros ajustados, quando não detectado. A teoria de confiabilidade convencional foi desenvolvida para os procedimentos de teste convencionais, como o data snooping, que pressupõem que apenas uma observação está contaminada por erros grosseiros por vez. Recentemente foram desenvolvidas medidas de confiabilidade generalizadas, relativas a testes estatísticos que pressupõem a existência, simultânea, de múltiplas observações com erros (outliers). Outras abordagens para o controle de qualidade do ajustamento, alternativas a estes testes estatísticos, também foram propostas recentemente, como por exemplo, o método QUAD (Quasi-Accurate Detection of outliers method). Esta pesquisa tem por objetivo fazer um estudo sobre o controle de qualidade do ajustamento de observações geodésicas, por meio de experimentos em uma rede GPS (Global Positioning System), utilizando tanto os métodos convencionais quanto o atual estado da arte. Desta forma, foram feitos estudos comparativos entre medidas de confiabilidade convencionais e medidas de confiabilidade generalizadas para dois outliers simultâneos, bem como estudos comparativos entre o procedimento data snooping e testes estatísticos para a identificação de múltiplos outliers. Também se investigou como a questão das variâncias e covariâncias das observações, bem como a geometria/configuração da rede GPS em estudo, podem influenciar nas medidas de confiabilidade, tanto na abordagem convencional, quanto na abordagem generalizada. Por fim, foi feito um estudo comparativo entre o método QUAD e os testes estatísticos para a identificação de erros. / After the adjustment of observations has been carried out by Least Squares Method (LSM), it is possible to detect and identify non-random errors in the observations using statistical tests. The reliability theory makes use of appropriate measures to quantify the minimal detectable bias (error) in an observation, and its influence on the adjusted parameters, if not detected. The conventional reliability theory has been developed for conventional testing procedures such as data snooping, which assumes that only one observation is contaminated by errors at a time. Recently, generalized measures of reliability has been developed, relating to statistical tests that assumes the existence, simultaneous, of multiple observations with errors (outliers). Other approaches to the quality control of the adjustment, alternatives to these statistical tests, were also proposed recently, such as the QUAD method (Quasi-Accurate Detection of outliers method). The goal of this research is to make a study about the quality control of the adjustment of geodetic observations, by means of experiments in a GPS (Global Positioning System) network, using both conventional methods and the current state of the art. In this way, comparisons were made between conventional reliability measures and generalized measures of reliability for two outliers, as well as comparisons between the data snooping procedure and statistical tests to identify multiple outliers. It was also investigated how the variances and covariances of the observations, as well as the geometry/configuration of the GPS network in study, can influence the measures of reliability, both in the conventional approach and in the generalized approach. Finally, a comparison was made between the QUAD method and the statistical tests to identify outliers (errors).
|
5 |
An engineering vector-like approach to attitude kinematics & nominal attitude state tracking controlPece, Carlos Alessandro Zanetti 10 1900 (has links)
CAPES, Fundação Casimiro Montenegro Filho / No tratamento do movimento rotacional tridimensional de corpos rígidos é inevitável lidar-se com o fato de que rotações não são quantidades vetoriais. Elas podem, no entanto, ser tratadas como tais quando o ângulo de rotação é (muito) pequeno. Neste contexto, ou seja, o da análise infinitesimal, as derivadas temporais das variáveis de rotação mantêm um relacionamento simples (às vezes mesmo do tipo vetorial) com os componentes do vetor velocidade angular. Convencionalmente, esta distinta característica não pode ser associada a rotações grandes, nem mesmo medianas. Nesta tese é demonstrado que a relação diferencial entre o vetor rotação e o vetor velocidade angular pode, na realidade, ser expressa em termos de uma simples derivada temporal, desde que o ângulo de rotação seja mantido numa faixa moderada. O artifício permitindo tal simplicidade na equação cinemática (cinemática linear de atitude) com um ângulo de rotação moderado é a escolha criteriosa da base a partir da qual a derivada temporal é observada. Este resultado é utilizado vantajosamente em conjunto com uma versão generalizada das equações de movimento de Euler na construção de uma lei de controle simples. Essa lei realiza, concomitantemente, o rastreamento linear nominal de atitude e o rastreamento linear nominal de velocidade angular (rastreamento linear nominal de estado rotacional),
dentro de uma faixa moderada de erro de rastreamento de atitude. O trabalho analítico apresentado é único no sentido em que este combina cinemática rotacional, dinâmica rotacional e controle de forma tal que linearidade nominal entre as variáveis de erro de estado é atingida mesmo para erros moderados de rastreamento de atitude. Pela primeira vez, uma lei de controle permite explicitamente que a dinâmica de erro de estado rotacional em malha fechada seja escolhida e motivada por conceitos físicos úteis da teoria linear de controle. O texto também inclui simulações numéricas que validam e ilustram os resultados teóricos obtidos. / In dealing with rigid body three-dimensional rotational motion, one is inevitably led to face the fact that rotations are not vector quantities. They may, however, be treated as such when the angle of rotation is (very) small. In this context, i.e. the infinitesimal case analysis, the time derivatives of the rotation variables hold simple (sometimes vector-like) relationships to the components of the angular velocity vector. Conventionally, this distinctive characteristic cannot be associated with general moderate-to-large rotations. In this thesis, it is demonstrated that the kinematical differential relationship between the rotation vector and the angular velocity vector may, in fact, be expressed in terms of a mere time derivative, provided that the angle of rotation is kept within moderate bounds. The key to achieve such simplicity in the kinematical equation (linear attitude kinematics) within moderate angles of rotation is a judicious choice of the basis from which the time derivative is observed. This result is used to advantage within a generalised version of Euler’s motion equations to construct a simple control law, which nominally realises both linear attitude tracking and linear angular velocity tracking (nominal linear attitude state tracking), within moderate attitude tracking errors. The analytical work presented here is unique in the sense that it combines attitude kinematics, dynamics and control in such a way that nominal linearity between the attitude state error variables is achieved within moderate attitude tracking errors. For the first time, an attitude control law explicitly enables the nominal closed-loop attitude state error dynamics to be chosen and motivated by useful physical concepts from linear control theory. The text also includes numerical simulations that validate and illustrate the theoretically achieved results.
|
6 |
Metodologia de estima??o de estados para tratamento de medi??es err?neas e registros n?o sincronizados em algoritmos de localiza??o de faltas em linhas de transmiss?oCruz, Melinda Cesianara Silva da 17 July 2015 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-04-22T21:41:53Z
No. of bitstreams: 1
MelindaCesianaraSilvaDaCruz_TESE.pdf: 2034495 bytes, checksum: a7bdc7bc74326370650126bf74a096da (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-04-22T22:11:02Z (GMT) No. of bitstreams: 1
MelindaCesianaraSilvaDaCruz_TESE.pdf: 2034495 bytes, checksum: a7bdc7bc74326370650126bf74a096da (MD5) / Made available in DSpace on 2016-04-22T22:11:02Z (GMT). No. of bitstreams: 1
MelindaCesianaraSilvaDaCruz_TESE.pdf: 2034495 bytes, checksum: a7bdc7bc74326370650126bf74a096da (MD5)
Previous issue date: 2015-07-17 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / O desempenho de algoritmos para localiza??o de faltas em linhas de transmiss?o est? diretamente relacionado ? exatid?o dos seus dados de entrada. Assim, fatores como erros nos par?metros da linha de transmiss?o, falhas na sincroniza??o de registros oscilogr?ficos e erros em medi??es de tens?o e de corrente podem influenciar de forma significativa as ferramentas que usam dados err?neos para indicar o local de defeitos. Este trabalho apresenta uma nova metodologia para localiza??o de faltas em linhas de transmiss?o, baseada na teoria de estima??o de estados, de forma a determinar o local mais prov?vel de ocorr?ncia de curtos-circuitos atrav?s da considera??o de erros sistem?ticos real?sticos que podem estar presentes nas medi??es de tens?o e de corrente. O algoritmo foi implementado em duas etapas: pr?-falta e p?s-falta. Na primeira etapa, admitindo dados n?o sincronizados, estima-se o ?ngulo de sincroniza??o e os par?metros de sequ?ncia positiva da linha de transmiss?o, e na segunda, estima-se a dist?ncia de falta. Al?m de calcular o valor mais prov?vel para a dist?ncia de falta, a partir da considera??o de erros nas medi??es, a vari?ncia associada a esta dist?ncia tamb?m ? determinada, usando defini??es da teoria de erros. Essa ? uma das principais contribui??es deste trabalho, visto que, a partir o algoritmo proposto, ? poss?vel determinar uma regi?o de prov?vel incid?ncia da falta, com aproximadamente 95,45% de confian?a. Testes para avalia??o e valida??o da metodologia foram realizados a partir de registros reais de falta e a partir de simula??es de sistemas fict?cios de transmiss?o no software ATP. Os resultados obtidos s?o relevantes para mostrar que o estimador de localiza??o de faltas desenvolvido apresenta bom desempenho mesmo adotando vari?ncias real?sticas. / The performance of algorithms for fault location i
n transmission lines is directly
related to the accuracy of its input data. Thus, fa
ctors such as errors in the line parameters,
failures in synchronization of oscillographic recor
ds and errors in measurements of voltage
and current can significantly influence the accurac
y of algorithms that use bad data to indicate
the fault location. This work presents a new method
ology for fault location in transmission
lines based on the theory of state estimation in or
der to determine the location of faults more
accurately by considering realistic systematic erro
rs that may be present in measurements of
voltage and current. The methodology was implemente
d in two stages: pre-fault and post-
fault. In the first step, assuming non-synchronized
data, the synchronization angle and
positive sequence line parameters are estimated, an
d in the second, the fault distance is
estimated. Besides calculating the most likely faul
t distance obtained from measurement
errors, the variance associated with the distance f
ound is also determined, using the errors
theory. This is one of the main contributions of th
is work, since, with the proposed algorithm,
it is possible to determine a most likely zone of f
ault incidence, with approximately 95,45%
of confidence. Tests for evaluation and validation
of the proposed algorithm were realized
from actual records of faults and from simulations
of fictitious transmission systems using
ATP software. The obtained results are relevant to
show that the proposed estimation
approach works even adopting realistic variances, c
ompatible with real equipments errors.
|
7 |
An engineering vector-like approach to attitude kinematics & nominal attitude state tracking controlPece, Carlos Alessandro Zanetti 10 1900 (has links)
CAPES, Fundação Casimiro Montenegro Filho / No tratamento do movimento rotacional tridimensional de corpos rígidos é inevitável lidar-se com o fato de que rotações não são quantidades vetoriais. Elas podem, no entanto, ser tratadas como tais quando o ângulo de rotação é (muito) pequeno. Neste contexto, ou seja, o da análise infinitesimal, as derivadas temporais das variáveis de rotação mantêm um relacionamento simples (às vezes mesmo do tipo vetorial) com os componentes do vetor velocidade angular. Convencionalmente, esta distinta característica não pode ser associada a rotações grandes, nem mesmo medianas. Nesta tese é demonstrado que a relação diferencial entre o vetor rotação e o vetor velocidade angular pode, na realidade, ser expressa em termos de uma simples derivada temporal, desde que o ângulo de rotação seja mantido numa faixa moderada. O artifício permitindo tal simplicidade na equação cinemática (cinemática linear de atitude) com um ângulo de rotação moderado é a escolha criteriosa da base a partir da qual a derivada temporal é observada. Este resultado é utilizado vantajosamente em conjunto com uma versão generalizada das equações de movimento de Euler na construção de uma lei de controle simples. Essa lei realiza, concomitantemente, o rastreamento linear nominal de atitude e o rastreamento linear nominal de velocidade angular (rastreamento linear nominal de estado rotacional),
dentro de uma faixa moderada de erro de rastreamento de atitude. O trabalho analítico apresentado é único no sentido em que este combina cinemática rotacional, dinâmica rotacional e controle de forma tal que linearidade nominal entre as variáveis de erro de estado é atingida mesmo para erros moderados de rastreamento de atitude. Pela primeira vez, uma lei de controle permite explicitamente que a dinâmica de erro de estado rotacional em malha fechada seja escolhida e motivada por conceitos físicos úteis da teoria linear de controle. O texto também inclui simulações numéricas que validam e ilustram os resultados teóricos obtidos. / In dealing with rigid body three-dimensional rotational motion, one is inevitably led to face the fact that rotations are not vector quantities. They may, however, be treated as such when the angle of rotation is (very) small. In this context, i.e. the infinitesimal case analysis, the time derivatives of the rotation variables hold simple (sometimes vector-like) relationships to the components of the angular velocity vector. Conventionally, this distinctive characteristic cannot be associated with general moderate-to-large rotations. In this thesis, it is demonstrated that the kinematical differential relationship between the rotation vector and the angular velocity vector may, in fact, be expressed in terms of a mere time derivative, provided that the angle of rotation is kept within moderate bounds. The key to achieve such simplicity in the kinematical equation (linear attitude kinematics) within moderate angles of rotation is a judicious choice of the basis from which the time derivative is observed. This result is used to advantage within a generalised version of Euler’s motion equations to construct a simple control law, which nominally realises both linear attitude tracking and linear angular velocity tracking (nominal linear attitude state tracking), within moderate attitude tracking errors. The analytical work presented here is unique in the sense that it combines attitude kinematics, dynamics and control in such a way that nominal linearity between the attitude state error variables is achieved within moderate attitude tracking errors. For the first time, an attitude control law explicitly enables the nominal closed-loop attitude state error dynamics to be chosen and motivated by useful physical concepts from linear control theory. The text also includes numerical simulations that validate and illustrate the theoretically achieved results.
|
8 |
Controle de qualidade no ajustamento de observações geodésicasKlein, Ivandro January 2012 (has links)
Após o ajustamento de observações pelo método dos mínimos quadrados (MMQ) ter sido realizado, é possível a detecção e a identificação de erros não aleatórios nas observações, por meio de testes estatísticos. A teoria da confiabilidade faz uso de medidas adequadas para quantificar o menor erro detectável em uma observação, e a sua influência sobre os parâmetros ajustados, quando não detectado. A teoria de confiabilidade convencional foi desenvolvida para os procedimentos de teste convencionais, como o data snooping, que pressupõem que apenas uma observação está contaminada por erros grosseiros por vez. Recentemente foram desenvolvidas medidas de confiabilidade generalizadas, relativas a testes estatísticos que pressupõem a existência, simultânea, de múltiplas observações com erros (outliers). Outras abordagens para o controle de qualidade do ajustamento, alternativas a estes testes estatísticos, também foram propostas recentemente, como por exemplo, o método QUAD (Quasi-Accurate Detection of outliers method). Esta pesquisa tem por objetivo fazer um estudo sobre o controle de qualidade do ajustamento de observações geodésicas, por meio de experimentos em uma rede GPS (Global Positioning System), utilizando tanto os métodos convencionais quanto o atual estado da arte. Desta forma, foram feitos estudos comparativos entre medidas de confiabilidade convencionais e medidas de confiabilidade generalizadas para dois outliers simultâneos, bem como estudos comparativos entre o procedimento data snooping e testes estatísticos para a identificação de múltiplos outliers. Também se investigou como a questão das variâncias e covariâncias das observações, bem como a geometria/configuração da rede GPS em estudo, podem influenciar nas medidas de confiabilidade, tanto na abordagem convencional, quanto na abordagem generalizada. Por fim, foi feito um estudo comparativo entre o método QUAD e os testes estatísticos para a identificação de erros. / After the adjustment of observations has been carried out by Least Squares Method (LSM), it is possible to detect and identify non-random errors in the observations using statistical tests. The reliability theory makes use of appropriate measures to quantify the minimal detectable bias (error) in an observation, and its influence on the adjusted parameters, if not detected. The conventional reliability theory has been developed for conventional testing procedures such as data snooping, which assumes that only one observation is contaminated by errors at a time. Recently, generalized measures of reliability has been developed, relating to statistical tests that assumes the existence, simultaneous, of multiple observations with errors (outliers). Other approaches to the quality control of the adjustment, alternatives to these statistical tests, were also proposed recently, such as the QUAD method (Quasi-Accurate Detection of outliers method). The goal of this research is to make a study about the quality control of the adjustment of geodetic observations, by means of experiments in a GPS (Global Positioning System) network, using both conventional methods and the current state of the art. In this way, comparisons were made between conventional reliability measures and generalized measures of reliability for two outliers, as well as comparisons between the data snooping procedure and statistical tests to identify multiple outliers. It was also investigated how the variances and covariances of the observations, as well as the geometry/configuration of the GPS network in study, can influence the measures of reliability, both in the conventional approach and in the generalized approach. Finally, a comparison was made between the QUAD method and the statistical tests to identify outliers (errors).
|
9 |
Análise de erros cometidos pelos discentes do sétimo ano do ensino fundamental e primeiro ano do ensino médio no estudo dos números racionais na sua forma fracionáriaOliveira, Luís Carlos Góis de 29 August 2017 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The present work was developed with the purpose of investigating the difficulties presented by seventh year students regarding the four fundamental operations (addition, subtraction, multiplication and division) in the study of Fractions and at the same time to analyze if these same difficulties persist with The first year of high school. It is noticed that this subject is little explored in the textbooks of elementary education and with this the students demonstrated a certain difficulty in its resolutions, since the students of the high school presented more difficulties. The research was based on a qualitative approach and a field research. A questionnaire was applied to twenty students from the seventh grade class and to twenty students from a first year class at state college, located in the city of Nossa Senhora da Glória, state of Sergipe. The analysis of the data was made through studies of the obstacles and analysis of the errors presented by the students in the resolution of the questionnaire. In the face of all the difficulties encountered by the students, we conclude that there is a long way to go so that the students have a satisfactory knowledge about the subject of the study. / O presente trabalho foi desenvolvido com o intuito de investigar quais são as dificuldades apresentadas por alunos do sétimo ano com relação as quatro operações fundamentais (adição, subtração, multiplicação e divisão) no estudo das Frações e ao mesmo tempo analisar se essas mesmas dificuldades persistem com os alunos do primeiro ano do Ensino Médio. Percebe-se que este assunto é pouco explorado nos livros didáticos do Ensino Fundamental e com isso os alunos demonstraram uma certa dificuldade nas suas resoluções, visto, apresentaram mais dificuldades os alunos do ensino médio. A pesquisa fundamentou-se numa abordagem qualitativa e numa pesquisa de campo. Foi feita a aplicação de um questionário a vinte alunos da turma do sétimo ano e a vinte alunos de uma turma de primeiro ano do colégio estadual localizada na cidade de Nossa Senhora da Glória, estado de Sergipe. A análise dos dados deu-se mediante estudos dos obstáculos e análise dos erros apresentados pelos alunos na resolução do questionário. Diante de todas as dificuldades encontradas pelos alunos, concluímos que há um longo caminho a ser percorrido para que os alunos tenham um conhecimento satisfatório sobre o tema do estudo. / Itabaiana, SE
|
10 |
Análise de erros cometidos por alunos do 6° ano na resolução de problemas envolvendo operações com fraçõesBarreto, José Rogério 30 August 2017 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This work aimed to identify the errors made by 6th grade elementary school students in a State Public School school in solving issues related to operations with fractions and what problems they encountered in solving problems involving operations with fractions. Participated in the study 29 students of the 6th grade of Elementary School of a state college in Agreste Sergipano. Two questionnaires were used to collect data. The first one contained seven direct questions for students to perform fractional operations, and the second contained six questions that needed to be interpreted to solve problems, including questions related to fractions and their operations. For the analysis of the first questionnaire we used the Error Analysis (Cury 1994), where we quantified and described the types of errors made by the students in solving the questions. In this we detect that the greatest difficulties faced are related to errors in the addition and subtraction of fractions. In the second questionnaire that addresses problem solving, we used the qualitative content analysis and the problem solving phases of Polya (1995). In order to do so, we try to identify in which phase students present greater difficulties in solving problems. The results of the second questionnaire prove that one of the greatest difficulties for students is to understand the problem, which does not allow them to establish and execute the resolution plan. / Este trabalho teve o intuito de identificar quais os erros cometidos por alunos de 6º ano do Ensino Fundamental em uma escola da Rede Pública Estadual na resolução de questões referentes às operações com frações e quais as problemáticas encontradas por eles na resolução de problemas envolvendo operações com frações. Participaram do estudo 29 alunos do 6º ano do Ensino Fundamental de um colégio estadual do Agreste Sergipano. Para a coleta de dados foram aplicados dois questionários. O primeiro, continha sete questões diretas para os alunos efetuarem operações com frações e o segundo continha seis questões nas quais era necessário interpretar para resolver os problemas, essas questões também envolvendo conhecimentos relacionados às frações e suas operações. Para a análise do primeiro questionário utilizamos a Análise de Erros (Cury 1994), onde quantificamos e descrevemos os tipos de erros cometidos pelos alunos na resolução das questões. Nesta detectamos que as maiores dificuldade enfrentadas estão relacionadas a erros na adição e subtração de frações. Já no segundo questionário que aborda resolução de problemas, utilizamos a análise qualitativa de conteúdo e as fases de resolução de problemas de Polya (1995). Para tanto buscamos identificar em qual fase os alunos apresentam maiores dificuldades na resolução de problemas. Os resultados do segundo questionário comprovam que uma das maiores dificuldades dos alunos é de compreender o problema, o que não permite que estabeleça e execute o plano de resolução. / Itabaiana, SE
|
Page generated in 0.0872 seconds