Spelling suggestions: "subject:"matemática estatística"" "subject:"latemática estatística""
1 |
Métodos quantitativos aplicados a políticas de saúde pública: estudo de caso dos idosos.Amanda Cecília Simões da Silva 14 December 2006 (has links)
O envelhecimento populacional é hoje um fenômeno mundial. No caso brasileiro, pode ser contatado por um aumento de participação da população idosa, onde o Brasil passaria de 16 país com maior concentração de idosos no mundo em 1950, para o 6 em 2025, com cerca de 25 milhões de pessoas idosas. Em decorrência a essa modificação observada, surgem desafios para a Saúde Pública, como: (a) a promoção do envelhecimento saudável, (b) manter a independência e a vida ativa, pelo maior tempo possível, (c) desenvolver e elaborar políticas de prevenção de saúde. Nesse sentido, este estudo tem como objetivo avaliar a manutenção da capacidade funcional dos idosos, residentes no município de São José dos Campos, SP, Brasil. Esta avaliação será realizada em três etapas: a) na primeira etapa será realizada o estudo do Perfil Multidimensional do Idoso, (b) na segunda etapa, a partir dos resultados do perfil multidimensional, é analisada a manutenção da capacidade funcional dos idosos através do Índice de Barthel (de Atividades Básicas da Vida Diária), do Índice de Lawton (Atividades Instrumental da Vida Diária) e da classificação proposta por Ramos (c) na terceira etapa é utilizado um modelo de Regressão Logística para determinar as variáveis que influenciam no desempenho da capacidade funcional dos idosos. Este trabalho se mostra coerente com os estudos de prevalência que vêm sendo realizados no país. Demonstra ainda a importância do planejamento baseado em dados espaciais e apontam para a necessidade de trabalhar políticas integradas (social, saúde, planejamento urbano), com uma base territorial comum. Portanto as características da população idosa de SJC identificadas neste trabalho devem alertar os planejadores de saúde para a importância de desenvolver políticas intersetoriais na organização dos serviços para atender a crescente demanda representada pelos idosos.
|
2 |
Tratamento de dados multivariados por análise de correspondência em dados de idosos de São José dos Campos.Luciene Bianca Alves 30 July 2007 (has links)
Neste trabalho, devido a grande quantidade de dados categóricos, se faz adequada o uso da técnica exploratória de sintetização (simplificação) da Análise Multivariada, mais especificamente, da Análise de Correspondência. Trata-se de uma ferramenta para tratamento de dados contemplando variáveis com múltiplas categorias. Através de representações gráficas, denominadas mapas perceptuais, gerados a partir de uma amostra, foi possível estabelecer relações e obter fáceis interpretações quanto à associação entre características. Foi aplicada Análise de Correspondência neste trabalho, seguida da Análise de Agrupamento em um estudo de caso na área da saúde. Os dados obtidos para a pesquisa traçam o perfil multidimensional do idoso através de informações subjacentes a respeito do mesmo. Uma vez que essa parcela da população necessita de atenção especial, é de grande importância destacar variáveis que possam influenciar na aquisição de um envelhecimento saudável. Através dos resultados obtidos, foi possível agrupar idosos com características semelhantes em relação a diversas variáveis, como por exemplo, idade, autonomia, saúde mental, etc. Os resultados obtidos respondem a indagações estipuladas pela medicina geriátrica, em torno da caracterização de perfis de saúde, em especial, da associação de variáveis como demência, depressão e autonomia. Dessa forma, tais resultados se referem a uma contribuição no Setor da Saúde. A obtenção de uma associação multivariada através da técnica em uso privilegia o presente estudo já que, até então, não há referências de estudos similares.
|
3 |
On the detection of outliers in data envelopment analysis methodology.André Luiz Chiossi Forni 00 December 2002 (has links)
A Análise de Envoltória de Dados (DEA) é uma metodologia baseada em programação linear que se destina à avaliação da eficiência relativa das DMU's e à estimação de fronteiras de produção. DMU's são entidades gerenciais ou produtivas que transformam fatores de produção em produtos. DEA é um método não-paramétrico porque não é necessário que se imponha uma forma ao processo produtivo. Além disso, ele permite que se trabalhe num complexo contexto com múltiplos fatores e múltiplos produtos. Por outro lado, DEA é um método determinístico e, portanto, não consegue acomodar ruídos de natureza aleatória nos dados. Como a eficiência relativa das DMU's está relacionada com sua distância até a fronteira de produção estimada, um aspecto crítico é garantir que esta fronteira não seja gerada por pontos contaminados por erros. Pontos atípicos ("outliers") dessa natureza podem afetar severamente a estimativa de eficiência de outras DMU's e são chamados de pontos influentes. Nesta dissertação, medidas de eficiência tradicionais são analisadas e três métodos para a detecção e tratamento de pontos influentes baseados nessas medidas são apresentados e analisados. Além disso, são desenvolvidas variações desses métodos. A investigação de medidas de eficiência recentemente propostas também é enfocada, assim como seu uso potencial para a identificação de "outliers". Os métodos supracitados para detecção de "outliers" e avaliação de influência são aplicados a um problema que usa dados reais. Os resultados numéricos produzidos por esses métodos são comparados e analisados. Os pontos influentes são postos em evidência.
|
4 |
Genomic prediction of additive and non-additive effects in a pine breeding and simulated population / Predição genômica de efeitos aditivos e não aditivos em uma população de melhoramento de pinus e em populações simuladasAlmeida Filho, Janeo Eustáquio de 17 February 2016 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-04-22T13:42:06Z
No. of bitstreams: 1
texto completo.pdf: 2115910 bytes, checksum: 9ac26b919d7cf610eba0b2e44061dcc7 (MD5) / Made available in DSpace on 2016-04-22T13:42:06Z (GMT). No. of bitstreams: 1
texto completo.pdf: 2115910 bytes, checksum: 9ac26b919d7cf610eba0b2e44061dcc7 (MD5)
Previous issue date: 2016-02-17 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A predição do mérito genético dos indivíduos é um dos maiores desafios no melhoremento de plantas e animais. A predição é difícil por que as características importantes possuem natureza complexa, onde alguns caracteres possuem poucos genes de efeito maior, enquanto que outros são controlados por um elevado número de genes de efeito pequeno, além disso, efeitos não-additivos como dominância e epistasia podem ser importantes para o controle da variação genética. Para obter altas acurácias na predição é importante usar o modelo que corresponde com a arquitetura genética da característica e adicionalmente a adequada partição das várias fontes de variação genética (aditiva, dominancia e epistasia) é desejada para várias aplicações como capacidade geral e específica de combinação. No capítulo 1 foi revisado os aspectos gerais da predição genômica (GP), a aplicação dessa abordagem com diferentes propósitos em características com distintas arquiteturas genéticas e no final alguns modelos estatísticos aplicado na GP. No capítulo 2 foi avaliado modelos de regressão genômica (WGR) aditivos e aditivo-dominante com diferentes prioris, essas são premissas sobre a presença ou não de marcas com efeito maior. Adicionalmente no capítulo 3 foi avaliado a inclusão da informação oriunda do pedigree na predição genômica, usando os modelos BayesA aditivo e aditivo-dominante e também com o RKHS, que teoricamente pode predizer os efeitos aditivo e não aditivos confundidos. Esses modelos foram aplicados na altura de árvores (HT) aos 6 anos de idade, diâmetro na altura do peito (DBH) e resistência a ferrugem, mesurados em 923 indivíduos de pinos oriundos de uma população estruturada em 71 irmãos completos e genotipados com 4722 marcadores genéticos. Também foram simulados 6 características com distintas arquiteturas genéticas (poligenica e oligogênica com três leveis de dominância) para esses estudos. As populações simuladas usadas nessas características foram derivadas a partir de um programa de melhoramento padrão de pinos. No capítulo 2 para as caracteríticas oligogenica simuladas e para resistência a ferrugem o BayesA e BayesB forneceram as melhores acurácias para predição genotípica, porem as diferentes priores usadas em WGR produziram resultados similares para HT e para característica poligênicas simuladas. Contudo a inclusão da dominância nos modelos WGR aumentaram a acurácia apenas para características simuladas com elevado efeito de dominância e para HT. Quando o BayesB foi ajustado em uma geração para predizer na geração seguinte, a inclusão da dominância aumentou as acurácias apenas para características oligogenicas simuladas com elevada dominancia. Independente do modelo adotado, a acurácia da predição genotípica total decresceu com o aumento dos efeitos de dominancia nas características simuladas. Então esses resultados refletem que a predição da dominancia foi complexa quando comparado com a predição dos efeitos aditivos, e para a aplicações posteriores dos efeitos de dominância, algumas propriedades genéticas da população devem ser avaliadas como MAF e número de meios irmãos e irmãos completos. No capítulo 3, a inclusão do informação oriunda do pedigree no modelo genômico, não produziu acurácias mais elevadas quando comparado com os modelos que usaram apenas informações de marcadores, e ambos modelos foram substancialmente mais acurados que o modelo baseado apenas em informação de pedigree. Em HT, DBH e características poligênicas simuladas com efeitos aditivos e dominantes, os modelos baseados em RKHS mostraram acurácias ligeiramente superiores que o BayesA para predição genotípica total, enquanto que o BayesA foi a melhor opção para resistência a ferrugem e características oligogenicas. Para a predição dos valores de melhoramento o BayesA aditivo foi o melhor modelo. / The prediction of individual genetic merit is one of most important challenges in plant and animal breeding. Prediction is difficult because the important traits have a complex nature, where some traits have few genes with major effects, while others are controlled by a large number of genes with small effects. Non-additive effects such as dominance and epistasis can also be important for controlling the genetic variation. In order to achieve higher accuracies in the prediction, it is important to use the model that matches the genetic architecture of trait. The proper partition of the various sources of genetic variation (additive, dominance and epistasis) is desired for several applications, such as exploring the overall and specific combination ability. In Chapter 1, the general remarks of genomic prediction (GP) are reviewed, with the application of this approach with different proposals in distinct genetic architecture traits, together with some statistic models applied in GP. In Chapter 2, the additive and additive-dominance whole-genomic-regression (WGR) models are evaluated with different priors, together with assumptions regarding the presence or not of markers with major effects. Chapter 3 evaluates the inclusion of pedigree information in genomic prediction with additive- and additive-dominance BayesA and also with RKHS model that can theoretically predict confused additive and non- additive effects. These models were applied in tree height (HT), diameter at breast height (DBH) and rust resistance in 923 loblolly pine individuals at 6 years of age from a structured population of 71 full-sib families genotyped with 4722 genetic markers. Six traits were also simulated with distinct genetic architectures (polygenic and oligogenic traits with three dominance levels) for these studies. The simulated population for these traits was derived from a standard pine breeding program. In the oligogenic simulated traits and rust resistance in chapter 2, BayesA and BayesB provided greater accuracies for genotypic prediction; however, the different priors of WGR yielded similar results for HT and simulated polygenic traits. Therefore, the inclusion of dominance effects in WGR increases the accuracy only for simulated traits with high dominance effects and HT. When BayesB was fitted in one generation for predicting the next generation, the dominance inclusion increased the accuracies only for the oligogenic simulated trait with high dominance. Regardless of the model adopted, the accuracy of whole genotypic prediction decreased with the increase of dominance effects in simulated traits. Thus, these results reflect that dominance prediction is complex when compared to additive prediction, and for downstream applications of dominance effects, some genetic properties of the population should be evaluated, such as MAF and the number of half and full-sibs. In chapter 3, the inclusion of pedigree information in genomic model did not yield higher accuracies than models based in only marker information, and both models were substantially more accurate than models basedonly on pedigree. In HT, DBH and in polygenic traits simulated with additive-dominance effects, the RKHS-based models showed slightly higher accuracies than BayesA for whole genotypic prediction, while BayesA-based models were the best option for rust resistance and oligogenic simulated traits. For the prediction of breeding values, the BayesA additive was the best model.
|
5 |
Mineração de dados aplicada ao estudo do perfil de tráfegos aéreos desconhecidos.Francisco Guirado Bernabeu 00 December 2004 (has links)
Nesta dissertação aplicam-se técnicas de mineração de dados no estudo do perfil de Tráfegos Aéreos Desconhecidos (TAD), registrados em relatórios armazenados em bases de dados do Comando de Defesa Aeroespacial Brasileiro. O objetivo é dotar o Comando da Aeronáutica de um estudo sobre instrumentos que aumentem a eficiência da análise dos Relatórios de Tráfegos Aéreos Desconhecidos, a fim de levantar padrões comportamentais que possam auxiliar no planejamento de operações aéreas do Comando da Aeronáutica ou de operações de fiscalização, executadas por órgãos de repressão policial. Aborda-se o problema sistemática e iterativamente, seguindo-se as etapas do processo KDD (Knowledge Discovery in Databases), que consiste nas fases de Identificação do Problema, Pré-Processamento, Mineração dos Dados e Pós-Processamento. Na fase de Pré-Processamento, foram desenvolvidos algoritmos para agrupar as trajetórias dos TAD, enriquecendo a base de dados original com dados sobre as rotas predominantes e os pontos onde se originam ou desaparecem os tráfegos, possibilitando a identificação de aeródromos clandestinos ou de maior incidência de TAD. Foram realizados experimentos com algoritmos genéticos, extraindo regras por meio de duas funções de avaliação: uma para retornar regras genéricas, na fase de Mineração; e outra para obter regras precisas, centradas nos dados, na fase de Pós-Processamento do KDD. Foram também realizados estudos com o algoritmo APRIORI, para uma tarefa de Associação. Os experimentos constituíram um passo importante para descobrir a necessidade de estabelecer a presença de determinados atributos no antecedente ou no conseqüente das regras geradas, em função das características do domínio de aplicação. Finalmente, foi proposto um algoritmo de mineração de dados denominado Perfil Pré-Fixado (PPF), de maneira a possibilitar a extração de regras a partir de um conjunto de informações conhecidas e a superar as dificuldades impostas pelas particularidades da base de dados dos TAD. As soluções foram então implementadas e validadas por meio de uma interface gráfica desenvolvida em linguagem JAVA.
|
6 |
Estudo do efeito da qualidade dos pinos sobre os indicadores perda de voltagem anódica e distribuição de corrente em cubas Söderberg.Luiz Sérgio Vaz 00 December 1997 (has links)
Um experimento foi conduzido na fábrica da Alcoa Alumínio S.A., em Poços de Caldas - MG, para estudar o efeito da qualidade dos pinos anódicos e do tempo nos indicadores Perda de Voltagem Anódica e Distribuição de Corrente em cubas Söderberg. Utilizando a técnica de Análise de Variância para medições repetidas foi possível mostrar que cubas com pinos novos (cubas experiência) obtiveram uma redução estatisticamente significativa de 9,7% nos valores médios de Perda Anódica e uma melhoria de 12,6% na Distribuição de Corrente. O estudo mostrou que o fator tempo, em decorrência do processo de corrosão dos pinos, foi significativo na explicação da variação dos valores de Perda Anódica. Avaliando a expressão do coeficiente de variação, o estudo apresenta a tese de que a Distribuição de Corrente de uma cuba depende muito mais da variância da idade operacional dos pinos (estado de conservação) do que da sua vida útil. No propósito de evidenciar o comportamento dos dados ao longo do experimento, modelos de regressão, com limites naturais ou tecnológicos de crescimento, foram comparados segundo a natureza e forma da curva, se curvas "S" ou não.
|
7 |
Escolha de aeroporto em região de múltiplos aeroportos: o caso da grande São Paulo.Marcelo Baena Moreno 00 December 2002 (has links)
O presente trabalho visou modelar a escolha de aeroporto na Grande São Paulo. Nesta região existem dois aeroportos que concorrem pelo transporte aéreo doméstico de passageiros, o Aeroporto Internacional de São Paulo em Guarulhos (GRU) e o Aeroporto de Congonhas em São Paulo (CGH).Utilizando modelo LOGIT condicional, foram testadas especificações para a função utilidade, contendo uma, duas ou três variáveis explicativas. O melhor modelo considerou as variáveis: tempo de acesso até o aeroporto, freqüências de vôo diretas no período da viagem (pico da manhã ou da tarde) e experiência do passageiro com os aeroportos considerados.A influência destas variáveis foi analisada ao longo de mercados segmentados segundo critérios de horário de partida, aeroporto de partida, motivo de viagem, local de residência fixa, idade, renda familiar mensal total da residência, experiência com aeroportos da região, modo de acesso ao aeroporto, motivo declarado de escolha de aeroporto, tempo de vôo e tipo de empresa aérea utilizada.
|
8 |
Uso de redes de crença para seleção de declarações de importação.Marcos Antonio Cardoso Ferreira 00 December 2003 (has links)
O Sistema Integrado de Comércio Exterior (SISCOMEX) automatiza as operações de importação e exportação e atua como uma plataforma que sincroniza as ações de todos os órgãos governamentais envolvidos. O módulo importação usa uma técnica denominada Seleção Parametrizada com o objetivo de selecionar para conferência declarações de importação com infrações e liberar ou descartar as que não possuem. Contudo, o desempenho atual dessa técnica é considerado insatisfatório porque regularmente seleciona declarações de importação sem qualquer infração e libera declarações contendo infração. O principal motivo para esse comportamento é creditado à forma como os parâmetros de seleção são fixados e à liberdade limitada para diferenciar e ordenar as declarações selecionadas. Além disso, ela é completamente dependente do julgamento do usuário e ignora o histórico de infrações. Nesse trabalho é proposta uma nova técnica para selecionar declarações de importação para conferência e fiscalização, a qual permite ordená-las de acordo com a possibilidade de infração e permite que seja integrada ao sistema atual. Essa técnica denominada Seleção Probabilística é baseada em Redes de Crença. A Rede de Crença é representada por grafo acíclico dirigido (GAD) o qual exibe o relacionamento de causa e efeito entre diversas variáveis. A técnica é implementada utilizando a linguagem Java, sua API para acesso a banco de dados, JDBCTM, e o Banco de Dados MySQLTM. Dois conjuntos contendo dados de operações reais foram coletados e extraídos. O maior dos conjuntos foi usado para a modelagem e o outro foi usado para avaliar a Seleção Probabilística. Foram obtidos alguns resultados e sobre estes efetuadas análises que mostraram o bom desempenho da técnica proposta. No final são mostradas as conclusões e algumas sugestões para futuros trabalhos.
|
9 |
Previsão de séries temporais usando modelos de composição de especialistas locais.Brício de Melo 00 December 2003 (has links)
Este trabalho aborda a técnica de Composição de Especialistas Locais (CEL), que pode ser vista como uma técnica que realiza análise exploratória de dados e modelagem matemática simultaneamente. A técnica CEL pode ser aplicada para resolver problemas de previsão de séries temporais e reconhecimento de padrões. Dado um conjunto de pontos de dados de treinamento formados pelos pares (x, y) (x = entrada, y = saída), a idéia básica é a seguinte: 1) Primeiramente, considerando apenas a parte da entrada do conjunto de treinamento (x), uma rede neural de Kohonen é usada para dividir os dados em agrupamentos não-sobrepostos de pontos, 2) Várias técnicas de modelagens são então usadas para construir modelos concorrentes para cada agrupamento e considerando apenas os pares (x,y) daquele agrupamento, 3) O melhor modelo para cada agrupamento é selecionado e denominado de Modelo de Especialista Local. A Saída de todos os Modelos de Especialistas Locais são linearmente combinados pela Rede Supervisora que considera: 1) A distância dos pontos de dados x ao centro do agrupamento de dados usados para gerar o Modelo de cada Especialista Local, 2) A abrangência da região do espaço de entrada tomado por cada agrupamento de pontos de dados de treinamento. As seguintes técnicas de modelagem são utilizadas neste trabalho: Redes Neurais Artificiais (RNA), Análises de Regressão Múltipla (ARM) e Cópia Carbono (CC). Para comparação, o desempenho destas técnicas de modelagem são também avaliados quando usadas para construir modelos para todo o conjunto de dados de treinamento, isto é, sem usar qualquer técnica de agrupamento. Neste caso, os modelos são denominados de Modelos de Especialistas Globais. A técnica CEL é testada em experimentos computacionais usando as seguintes séries temporais que estão publicamente disponíveis na Internet: 1) A "Laser Data", assim chamada uma série temporal gerada num experimento de laboratório de física e usada em 1991 na Competição e Análises de Predição de Séries Temporais do Instituto Santa Fé, 2) Séries temporais de preços mensais e diários do açúcar (contrato 14) na Câmara de Comércio de Nova York (do inglês, New York Board Trade - NYBOT)
|
10 |
Calibração multivariada empregando transformada wavelet adaptativa.Clarimar José Coelho 00 December 2002 (has links)
Esta tese envolve o uso de técnicas baseadas na teoria de wavelets, mais especificamente bancos de filtros de quadratura espelhada, para tratar problemas de colinearidade na calibração multivariada de análises instrumentais.As principais contribuições do trabalho consistem na formulação de bancos de filtros na forma matricial usualmente empregada em quimiometria e no desenvolvimento de técnicas para otimizar os filtros de acordo com uma dada matriz de sinais de calibração. Para isso, dois métodos são propostos.O primeiro método objetiva maximizar a concentração de variância nas variáveis resultantes da transformação realizada pelo banco de filtros, de modo que um número menor de variáveis seja necessário para explicar uma dada quantidade de variância. Esse método emprega uma parametrização ortogonal dos filtros para contornar as dificuldades causadas pelas restrições não-lineares impostas pela condição de reconstrução perfeita. O segundo método objetiva maximizar o ganho de codificação do banco de filtros. Para isso, é proposta uma extensão da abordagem de programação semi-infinita para projeto de bancos de filtros de quadratura espelhada. Nos dois métodos, a otimização é seguida de um algoritmo de seleção para escolher um subconjunto de variáveis com pequena colinearidade.Regressão por mínimos-quadrados é então utilizada para relacionar essas variáveis com as concentrações dos analitos nas amostras de calibração. Adicionalmente, é proposto um algoritmo sub-ótimo para o ajuste simultâneo dos filtros e da estrutura de árvore de decomposição.Para fins de ilustração, as técnicas propostas são aplicadas à determinação simultânea de Mn, Mo, Cr, Ni e Fe em amostras de ação usando dados obtidos com um sistema de detecção de baixa resolução baseado em um espectrômetro de plasma acoplado a um arranjo de fotodiodos.Os resultados são expressos em termos dos erros de predição em um conjunto de amostras de teste não incluídas no processo de modelamento. Os resultados obtidos com os bancos de filtros otimizados mostram-se melhores que os obtidos com filtros não-otimizados e também com Regressão em Componentes Principais e Mínimos-Quadrados Parciais, que são técnicas comumente usadas em quimiometria.
|
Page generated in 0.105 seconds