• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43066
  • 580
  • 483
  • 363
  • 324
  • 324
  • 292
  • 255
  • 74
  • 68
  • 16
  • 14
  • 13
  • 12
  • 10
  • Tagged with
  • 4632
  • 3849
  • 2562
  • 2171
  • 2052
  • 1971
  • 1935
  • 1680
  • 1623
  • 1525
  • 1333
  • 1268
  • 1226
  • 1198
  • 1190
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

DNAstr.com: ferramenta estatística aplicada à genética forense

PAIVA JÚNIOR, Sérgio de Sá Leitão 15 March 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-08-19T12:38:39Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Tese - Sergio de Sa Leitao.pdf: 2555306 bytes, checksum: 9cf4a027de7926b4d5fc1af1503bbf91 (MD5) / Made available in DSpace on 2016-08-19T12:38:39Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Tese - Sergio de Sa Leitao.pdf: 2555306 bytes, checksum: 9cf4a027de7926b4d5fc1af1503bbf91 (MD5) Previous issue date: 2016-03-15 / A introdução do uso de STRs (Short Tandem Repeat) como uma ferramenta para identificação humana, revolucionou a área forense nos últimos 20 anos. Muitos laboratórios de biologia molecular passaram a oferecer o serviço de genotipagem com o objetivo de identificação individual tanto no âmbito forense. O serviço de genotipagem é finalizado na emissão de um laudo que, em muitos casos, será utilizado em tribunais e serve como prova em conflitos na justiça, por isto o laudo deve ser isento de erros e para garantir a minimização de erros nas conclusões dos laudos é necessário um grande controle por parte do laboratório, desde a coleta das evidências passando pela genotipagem até os cálculos estatísticos. O objetivo deste trabalho foi criar uma ferramenta destinada ao uso de laboratórios de genotipagem com foco forense. O DNAstr.com é um software construído na plataforma web que foca a automatização das etapas de cadastro até a emissão do laudo, permite a integração com outros aplicativos e equipamentos do laboratório, faz análises estatísticas do banco de dados e aplica alguns dos princípios estatísticos dos softwares utilizados na literatura para a resolução de casos de paternidade e análise de mistura. / The introduction of the use of STR (Short Tandem Repeat) as a tool for human identification has revolutionized forensic science in the last 20 years. Many molecular biology laboratories began offering the genotyping service with the individual identification goal in civil and forensic context. The genotyping service terminates producing a report, which in most cases, will be used in courts and will serve as evidence of justice disputes. Therefore, the report should not contain mistakes, and to ensure the minimization of errors in the conclusions of the reports is needed a lot of control by the laboratory from genotyping to the statistical calculations. The objective was to create a tool, oriented to the use of genotipage laboratories. The DNAstr.com is software that facilitates the creation of reports, automating the steps to register and report emission, allows integration with other applications and laboratory equipment, makes analyzes database statistics and apply some of the principles of statistical software used in the literature to resolve paternity cases, and mixture analysis.
212

A coordenação da estatística nacional: o equilíbrio entre o desejável e o possível

Senra, Nelson de Castro 06 February 1998 (has links)
Made available in DSpace on 2015-10-19T11:49:41Z (GMT). No. of bitstreams: 1 nelsonsenra1998.pdf: 1054201 bytes, checksum: f2a6540e54dd60865d16af792cc150c7 (MD5) Previous issue date: 1998-02-06 / The availability of statistical information in response to unquestionable demands has always been dependent on a process of coordination to elaborate a National Statistical as a set of statistics determined by some previously discussed classification plan. Despite its importance, such coordination process has precariously become a reality due to several reasons, either in the art of governing or in the art of calculation, and only presently extremely favorable conditions to its effective implementation exist. Considering this, it is suggested that such implementation be coordinated through a set of a maximum of ten thematic policies, constituting a policy of statistical information. Thus, the comprehension of what is desirable and the explanation of what is feaseble are put in dialectics to interpret the results, attempting to fully reveal statistical information both in its potentiality and limitation, avoiding frequent misunderstandings and conflicts among those who demand and those cho offer. Furthermore, it is recommended that the coordination process dictated by these policies be done at an argumentation level and not at a demonstration level. Finally, a survey among those who produce statistical information makes it possible to add two values to this thesis: one, offering knowledge of how to coordinate which is non-existent among such producers; two, offering a structured discourse about statistics which is insufficient among them as well. It also turns out in this survey that there is great potentiality for the development of this kind of coordination dependent on a clear government desire / A oferta de estatísticas públicas em resposta a demandas indeclináveis, desde sempre foi dependente da ocorrência de um processo de coordenação, de modo a configurar-se uma Estatística Nacional, como um coletivo submetido a uma ordem previamente argumentada, pautando-se em algum esquema de classificação; entretanto, em que pese sua reconhecida importância, um tal processo de coordenação, por razões várias, seja na arte de governar, seja na arte de calcular, só muito precariamente se concretizou ao longo do tempo, sendo que o tempo presente oferece condições extremamente favoráveis à sua efetiva realização. Isso posto, sugere-se a implantação de uma efetiva coordenação através de um conjunto de dez políticas temáticas, no limite, constituindo-se uma política de informação estatística; assim, a compreensão do desejável e a explicação do possível são postas em dialética com vistas a interpretação dos resultados, procurando-se revelar por inteiro as estatísticas, em suas possibilidades e em suas limitações, evitando-se assim os freqüentes desencontros e desentendimentos entre demandantes e ofertantes; ademais, sugere-se que a consecução da coordenação, através dessas políticas, não se faz no plano da demonstração mas antes no plano da argumentação. Enfim, uma pesquisa de opinião junto a produtores de estatísticas permite associar dois valores a essa tese, a saber: um, enquanto oferecendo um saber fazer a coordenação, o que é claramente inexistente entre os produtores; outro, enquanto oferecendo um discurso estruturado sobre as estatísticas, o que é claramente insuficiente entre os produtores; ademais, apreende-se dos resultados dessa pesquisa de opinião que há terreno fértil para a semeadura da coordenação, bastando haver uma clara vontade política
213

A cultura e a informação estatística nacional: entre o desejado e o possível

Ribeiro, Ana Rosa Pais 31 March 2011 (has links)
Made available in DSpace on 2015-10-19T11:50:20Z (GMT). No. of bitstreams: 1 anarosa2011.pdf: 1001047 bytes, checksum: 6e18431e349195d38172a0cc8897a5d2 (MD5) Previous issue date: 2011-03-31 / The present study lies in the field in the field of official for culture. It considers the statistical information as a social phenomenon, representing a construction of reality agreed that ideally follows the scientific concepts and definitions, legal or national and international consensus / O presente estudo situa-se no campo das informações estatísticas oficiais para a cultura. Considera a informação estatística como um fenômeno social, representando uma construção, convencionada da realidade, que decorre idealmente de conceitos e definições científicas, de ordenamentos jurídicos ou de consensos nacionais e internacionais
214

Testes estatísticos e detecções de mudanças de conceitos em fluxos de dados

CABRAL, Danilo Rafael de Lima 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T18:20:19Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T16:53:15Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) / Made available in DSpace on 2018-07-27T16:53:15Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Danilo Rafael de Lima Cabral.pdf: 1429893 bytes, checksum: 5720dd51e613a82826c1577ad86a1adf (MD5) Previous issue date: 2017-02-03 / O aprendizado online objetiva a extração de informações a partir de fluxos de dados compostos de uma grande quantidade de exemplos. Esses fluxos frequentemente contêm mudanças de conceitos que na maioria dos casos são caracterizadas como modificações nas distribuições dos dados. Métodos detectores de mudanças de conceitos são algoritmos projetados para trabalharem conjuntamente com um – ou mais – classificador base, a fim de estimarem as posições das mudanças e quando necessário substituírem o preditor, com o objetivo de melhorar a sua acurácia. DDM, EDDM e STEPD são exemplos de detectores simples, eficientes e bem-conceituados. Apesar de sua eficácia em bases pequenas, o DDM tende a perder precisão quando apresentado a conjuntos de dados consideravelmente grandes. Por outro lado, o EDDM funciona bem com bases de dados graduais, porém alcança baixos índices de acurácia em bases com mudanças de conceitos abruptas. O STEPD, por sua vez, foi projetado para a detecção de mudanças de conceitos através do teste de hipóteses entre duas proporções, entretanto, estatisticamente, esse teste não é recomendado para amostras pequenas e/ou desbalanceadas. Este trabalho propõe quatro novos detectores (formando o total de sete versões) que objetivam melhorar o DDM, EDDM e STEPD. Todos os métodos propostos são baseados em testes estatísticos, sendo o EMZD baseado no teste de hipóteses entre médias de duas amostras independentes e, o FPDD, FSDD e FTDD baseados no teste exato de Fisher. Os experimentos realizados, com dois classificadores base, usando 36 conjuntos de dados artificiais e três bases de dados reais, demonstraram a eficácia e eficiência dos detectores propostos. No que diz respeito a avaliação dos detectores, uma das versões do EMZD obteve as melhores acurácias e o FPDD foi o mais preciso na análise das detecções de mudanças de conceitos. / Online learning aims to extract information from data streams composed of a large number of examples. These flows often contain concept drifts that in most cases are characterized as changes in data distributions. Concept drifts detectors are algorithms designed to work with one or more base classifier in order to estimate the change positions and, when necessary, replace the predictor to improve its accuracy. DDM, EDDM and STEPD are simple, efficient and well-known detectors. Despite its effectiveness on small bases, DDM tends to lose accuracy when faced with considerably large data sets. On the other hand, EDDM works well with gradual databases, but achieves low accuracy on bases with abrupt drifts. STEPD was designed to detect changes in distribution using a hypothesis test between two proportions, however, statistically this test is not recommended for small and/or imbalanced samples. This work proposes four new detectors (seven versions in total) that aim to improve DDM, EDDM and STEPD. All the proposed methods are inspired by statistical tests, where EMZD is based on hypothesis test between means of two independent samples and FPDD, FSDD and FTDD are based on Fisher’s exact test. Experiments with two base classifiers using 36 artificial data sets and three real-world datasets demonstrated the effectiveness and efficiency of the proposed detectors. Regarding the evaluation of detectors, one of the versions of the EMZD obtained the best accuracy and the FPDD was the most accurate in the analysis of the concept drifts detections.
215

Reconhecimento Automático de Expressões Faciais Baseado em Modelagem Estatística

PEDROSO, F. J. C. 28 March 2013 (has links)
Made available in DSpace on 2018-08-02T00:00:57Z (GMT). No. of bitstreams: 1 tese_4712_DissPedroso.pdf: 11141579 bytes, checksum: 9c20fa3ab46c7740a5a5276bd6249932 (MD5) Previous issue date: 2013-03-28 / As expressões faciais são alvos constante de estudos desde Charles Darwin, em 1872. Pesquisas na área de psicologia e, em destaque, os trabalhos de Paul Ekman afirmam que existem expressões faciais universais básicas e elas são manifestadas em todos os seres humanos independente de fatores como gênero, idade, cultura e ambiente social. Ainda pode-se criar novas expressões mais complexas combinando as expressões fundamentais de alegria, tristeza, medo, nojo, raiva, surpresa e desprezo, além da face neutra. O assunto ainda é atual, uma vez que há uma grande necessidade de implementar interfaces homem-máquinas (IHM) capazes de identificar a expressão de um indivíduo e atribuir uma saída condizente com a situação observada. Pode-se citar como exemplos iterações homem-robô, sistemas de vigilância e animações gráficas. Nesse trabalho é proposto um sistema automático para identificar expressões faciais. O sistema é dividido em três etapas: localização de face, extração de características e identificação da expressão facial. O banco de dados Japanese Facial Expression Database - JAFFE foi utilizado para treinamentos e testes . A localização da face é realizada de maneira automática através do framework proposto por Viola-Jones e é estimado o centro da face. Na sequência, utiliza-se o algoritmo Active Appearance Model - AAM para descrever estatisticamente um modelo de forma e textura para o banco de dados. Com esse descritor é possível gerar um vetor de aparência capaz de representar, com redução de dimensão, uma face e, consequentemente, a expressão facial contida nela através de um algoritmo iterativo de busca a partir de um modelo médio. Esse vetor é utilizado na etapa de reconhecimento das expressões faciais, onde são testados os classificadores baseados no vizinho mais próximo k-NN e a máquina de vetores de suporte - SVM com kernel RBF para tratar o problema de forma não linear. É proposto um mecanismo de busca na saída do bloco de detecção de faces para diminuir o erro do modelo, pois o sucesso do algoritmo é altamente dependente do ponto inicial de busca. Também é proposto uma mudança no algoritmo AAM para redução do erro de convergência entre a imagem real e o modelo sintético que a representa, abordando o problema de forma não linear. Testes foram realizados utilizando a validação cruzada leave one out para todas as expressões faciais e o classificador SVM-RBF. O sistema apresentou um taxa de acerto de 55,4%, com sensibilidade 60,25% e especificidade 93,95%.
216

Trabalho de projetos : possibilidades e desafios na formação estatistica do pedagogo

Biajone, Jefferson, 1975- 15 March 2006 (has links)
Orientador: Dione Lucchesi de Carvalho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Educação / Made available in DSpace on 2018-08-06T10:15:47Z (GMT). No. of bitstreams: 1 Biajone_Jefferson_M.pdf: 1483830 bytes, checksum: d11c0b484d69e5f7bd89596968a03c54 (MD5) Previous issue date: 2006 / Resumo: Esta pesquisa consiste em um estudo de intervenção que analisa as potencialidades e possibilidades didático-pedagógicas da abordagem do trabalho de projetos na formação estatística do Pedagogo administrador escolar. Os sujeitos da pesquisa são trinta e um alunos matriculados na disciplina de Estatística Aplicada à Educação do segundo ano do curso de Pedagogia de uma Instituição de Ensino Superior particular no interior do Estado de São Paulo. Desejoso em melhorar a sua própria prática pedagógica e ajudar a transformar as práticas educativas no ensino da Estatística em cursos de Pedagogia, o professor desta disciplina e também pesquisador direciona a intencionalidade de sua ação no sentido de (re)significar a aprendizagem estatística dos sujeitos, bem como instigá-los para uma reflexão do papel que irão exercer enquanto profissionais da educação e consumidores de informações. O material de análise originou-se de várias fontes: o diário de campo do professor pesquisador, os trinta e um diários dos alunos, as tarefas realizadas pelos grupos, questionários e entrevistas semi-estruturadas, além de registros em áudio e vídeo de alguns dos encontros e atividades realizados em sala de aula. A análise das informações produzidas configurou-se a partir de dois eixos: (1) O trabalho de projetos e o aluno da Pedagogia (2) O trabalho de projetos e o professor Jefferson. No primeiro eixo foram contemplados aspectos relativos à contribuição didático-pedagógica do trabalho de projetos e os saberes estatísticos adquiridos pelo aluno da Pedagogia. Já o segundo eixo se dedicou aos aspectos relativos à mudança da prática, concepções e saberes docentes do professor Jefferson e os percalços, decepções e quebras de expectativas que ele teve com relação ao trabalho de projetos vivenciado. Os resultados do estudo indicam que o trabalho de projetos não só permite propiciar ao aluno da Pedagogia um ensino e aprendizagem da Estatística em consonância com as suas necessidades formativas, como também (re)significar posturas negativas que este aluno possa ter em relação àquele saber, ao desestimular ansiedades e estatifobias fomentadas por uma escolaridade pregressa muitas vezes influenciada pela ação da ideologia da certeza da Matemática. Resultou também desta pesquisa o fato de que a opção pela abordagem de projetos pôde efetivamente (re)significar a prática docente do professor-pesquisador, seus saberes, posturas e abordar questões envolvendo as implicações do trabalho em grupo de alunos universitários, a integração entre diferentes abordagens de ensino da Estatística e a necessidade da formação deste saber nos cursos de Pedagogia / Abstract: This research consists of an intervention study that verifies the pedagogical-didactics potentialities and possibilities of the work project approach in the statistical professional development of the Pedagogy student as a future school administrator. The subjects of this study are thirty-one sophomore students of a Pedagogy course enrolled in a basic-level Statistics discipline of a private college in the countryside of São Paulo State. Eager to improve his own teaching practice and improve educational practices related to the teaching of Statistics in Pedagogy courses, the instructor and also researcher of this study directs the intentions of his actions to (re)define the statistics learning of the subjects, as well as to motivate them to reflect upon the role they will perform as education professionals and consumers of information. The material for the analysis came from several sources: the diary of the instructor-researcher, the thirty-one student diaries, the activities done by the groups, questionnaires and semi-structured interviews. Data from audio and video recording of classes was also provided. The data analysis was accomplished through two main axes: (1) the project work and the Pedagogy student (2) the project work and the instructor of the discipline. In the first axis, aspects related to the pedagogical-didactic contribution of the project work and the statistical knowledge acquired by the Pedagogy student were put into discussion. As to the second axis, considerations were made about those aspects related to the improvement of professional practice, conceptions and deceptions concerning his experience under the project work approach. The results of this study indicate that the project work not only allows Pedagogy students to have a meaningful Statistics teaching and learning process in conformity to their professional development needs, but also a (re)definition of negative postures that these students may possess in relation to that knowledge, as it removes anxieties and statiphobias produced, in many cases, by previous school experiences plagued with the misdeeds of the Mathematics certainty ideology. Other relevant results are related to the fact that teaching statistics through project work helped to (re)define the instructor¿s teaching practice, professional knowledge and postures. This teaching approach also pointed out questions involving the implications of group work among college students, the integration between opposite statistics teaching methods and the need of this knowledge education in Pedagogy courses / Mestrado / Educação Matematica / Mestre em Educação
217

Aplicações estatisticas em reconhecimento de padrões com enfase em verificação de assinaturas

Sena Junior, Manoel Raimundo 03 March 1997 (has links)
Orientador: Lee Luan Ling / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-22T11:06:24Z (GMT). No. of bitstreams: 1 SenaJunior_ManoelRaimundo_D.pdf: 4951191 bytes, checksum: d9c1d170828ae76bb65a8ef3062d8bfe (MD5) Previous issue date: 1997 / Resumo: Neste trabalho apresentamos um estudo estatístico sobre seleção de variáveis e classificação de objetos em relação a dois padrões. Descrevemos alguns métodos de classificação conhecidos na literatura, construídos com base nas observações dos dois padrões. Dentre eles destacamos a classificação via Análise Discriminante e Modelos de Regressão Logística. Mais resumidamente descrevemos o Classificador de Bayes e um outro classificador, baseado nas observações de apenas um padrão fixado, que utiliza uma aproximação da distância de um objeto ao centro da distribuição normal, pela distribuição Qui-quadrado. Introduzimos um novo classificador, baseado apenas nas observações de um padrão fixado, que utiliza uma aproximação da distância de Mahalanobis de um objeto ao centro da distribuição normal, pela distribuição 'T POT. 2' de Hotelling. Comparamos seu desempenho, através de um estudo de simulação, com os demais classificadores em termos de taxa de classificação errônea. Descrevemos também alguns métodos de seleção de características significantes com base nos respectivos classificadores, além de outros métodos de seleção conhecidos na literatura, construídos com base nas observações apenas de um padrão fixado. Introduzimos um novo método de seleção com base no novo classificador. Um estudo de simulação para comparar o desempenho dos métodos de seleção apresentados foi realizado, onde o processo de classificação utiliza apenas as características significantes / Abstract: In this work, we describe and compile statistical classification methods about feature selection and object recognition for the case of two pattern classification. First of all, we describe some well-known statistical classification methods when observed samples of both patterns are avaliable. We provide some special attention to the description of the Discriminant Analysis and the Logistic Regression Models. A brief description of the Bayes classification method is provided. We also analyse the case when only one pattern is observable. In this case, the distance measure between the input feature vector and reference vector is assumed to have Qui-squared distribution. We also introduce a novel statistical classification method for the one-pattern observable case, by considering the distance measure as being the 'T POT. 2' Hotelling distribution. Performance comparison in terms of misclassification error is done via simulation. Next, we describe some, well-known, selection methods in the literature and suggest some feature selection strategies based on the classification methods previously described. Simulation investigation is performed to evaluate the classification methods using only significant selected features in terms of misclassification error. Finally, we apply the proposed feature selection and classification methods to signature verification problems, involving both static and dynamic human signatures / Doutorado / Doutor em Engenharia Elétrica
218

Atitudes em relação a estatistica : um estudo com alunos de graduação

Silva, Claudia Borim da 27 July 2018 (has links)
Orientador: Marcia R. F. Brito / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Educação / Made available in DSpace on 2018-07-27T05:54:05Z (GMT). No. of bitstreams: 1 Silva_ClaudiaBorimda_M.pdf: 7089251 bytes, checksum: 4e907c6449038b9f141a7c65708786a7 (MD5) Previous issue date: 2000 / Mestrado
219

Implicações das atitudes e das habilidades matematicas na aprendizagem dos conceitos de estatistica

Vendramini, Claudette Maria Medeiros 27 July 2018 (has links)
Orientador: Marcia Regina Ferreira de Brito / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Educação / Made available in DSpace on 2018-07-27T12:56:57Z (GMT). No. of bitstreams: 1 Vendramini_ClaudetteMariaMedeiros_D.pdf: 13824483 bytes, checksum: a701da314e8a7f3fdd7e7a4ec15640e5 (MD5) Previous issue date: 2000 / Doutorado
220

Controle estatistico multivariado de processos para observações individuais

Colacioppo, Roberto Celso 15 March 2001 (has links)
Orientador : Ademir Jose Petenate / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-27T16:57:40Z (GMT). No. of bitstreams: 1 Colacioppo_RobertoCelso_M.pdf: 12338744 bytes, checksum: 00d3c22c16e51f67a013a7a58ad5aae3 (MD5) Previous issue date: 2001 / Resumo: Propomos nesta dissertação um roteiro de técnicas simples de serem implementadas para auxílio no entendimento da variabilidade de processos cujas observações são individuais e multivariadas. A motivação básica para o uso do controle estatístico multivariado de processos (CEMP) vem do fato de se ter que levar em conta a estrutura de correlação dos dados para se responder adequadamente a pergunta: "o processo está sob controle?". No início do texto, o CEMP é revisto enquanto técnica utilizada para subgrupos racionais e uma ilustração de seu uso é mostrada tanto para a fase I (exame retrospectivo para se estimar os parâmetros do processo) como para a fase II (análise de futuros subgrupos). Um tratamento especial deve ser dedicado quando os subgrupos têm tamanho 1 (observações individuais), principalmente na fase I em que as estimativas dos parâmetros não são independentes das próprias observações a serem testadas, além disso, a estimativa usual da matriz de covariância pode ser inflacionada caso tenhamos causas assinaláveis no conjunto de dados inicial. Por essa razão, estimadores robustos dessa matriz, similares ao de amplitudes móveis do caso univariado, são estudados e limites adequados do gráfico de controle são desenvolvidos. Mostramos que nesses casos eles apresentam um bom desempenho para causas especiais tipo degrau e rampa. Por outro lado, sinais provocados por observações aberrantes são mais difíceis de serem detectados, principalmente se o afastamento não é tão evidente, e alternativas são sugeri das baseadas em técnicas de exploração da estrutura interna dos dados como Análise de Componentes Principais. Abordamos, em seguida, uma técnica de fácil implementação e interpretação para diagnóstico das causas assinaláveis. Ao final, utilizamos essas técnicas para análise de dados de um processo de montagem de cabinas de caminhões / Mestrado / Mestre em Estatística

Page generated in 0.0961 seconds