• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 8
  • 8
  • 1
  • Tagged with
  • 196
  • 196
  • 118
  • 118
  • 32
  • 26
  • 23
  • 22
  • 21
  • 21
  • 20
  • 18
  • 17
  • 17
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Otimizações qualitativas e quantitativas nas fases de leitura e análise em pipelines metagenômicos

Dias, Raquel January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:29Z (GMT). No. of bitstreams: 1 000444045-Texto+Completo-0.pdf: 8676416 bytes, checksum: 5dc6fddb810c5c4102aeef934f1d8983 (MD5) Previous issue date: 2012 / Metagenomic sequencing technologies are advancing rapidly and the size of output data from high-throughput genetic sequencing has increased substantially over the years. Our optimízations and performance evaluations are focused in some of the most critical and time-consuming steps of a metagenomic analysís: pre-processing, taxonomic classification assignment and post-processing of classification results. Optimizations and functions were implemented and introduced in a new architecture, PANGEA+, based on the PANGEA metagenomic pipeline. The main improvements of the present tool are: support of new input file formats and NCBI taxonomy database, new species classification methods, consensus analysis, implementation of distributed memory (MPI) for species classification step, and low complexity optimizations for the post-processing of classification results. The evaluation of the new architecture, shows remarkable improvements in many features and, mainly, in the species classification accuracy and performance. / As tecnologias de sequenciamento metagenômico tem avançado rapidamente e a quantidade de dados gerados a partir do sequenciamento em larga escala tem aumentado substancialmente ao longo dos anos. As presentes otimizações e avaliações de desempenho tem foco em algumas das etapas mais críticas e que consomem mais tempo em uma análise metagenômica: pré-processamento, classificação taxonômica e pós - processamento dos resultados de classificação. Otimizações e funções foram implementadas e introduzidas em uma nova arquitetura, PANGEA+, baseada no pipeline metagenômico PANGEA. Os principais melhoramentos alcançados com a presente ferramenta foram: suporte a vários formatos de arquivos de entrada e a base de dados taxonômicos do NCBI, novos métodos de classificação de espécies incluídos, análise consenso, implementação de memória distribuída para a fase de classificação de espécies, otimizações de baixa complexidade para o pós-processamento dos resultados de classificação. A avaliação da nova arquitetura, PANGEA+, demonstra melhoramentos consideráveis em várias funcionalidades e, principalmente, na etapa de classificação de espécies, tanto em exatidão quanto em desempenho computacional.
12

Abordagem Kernelizada Para Análise Discriminante Generalizada

Queiroz, Diego Cesar Florencio de 30 July 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-10T13:56:06Z No. of bitstreams: 2 Dissertacao Diego de Queiroz.pdf: 4124952 bytes, checksum: 8b1119beb27827489557809772a98050 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-10T13:56:06Z (GMT). No. of bitstreams: 2 Dissertacao Diego de Queiroz.pdf: 4124952 bytes, checksum: 8b1119beb27827489557809772a98050 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-07-30 / Diferentes modelos clássicos já foram estendidos para a classificação de dados simbólicos de natureza intervalar, como regressão logística e discriminante linear, entre vários outros, contudo a maior parte desses classificadores foi desenvolvida para a resolução de problemas linearmente separáveis, não possuindo um bom desempenho face à problemas não-linearmente separáveis. Esse trabalho introduz duas abordagens baseadas no modelo de discriminante linear generalizado para classificar dados simbólicos intervalares. Nessas abordagens duas famílias de funções de kernel foram utilizadas separadamente para transpor os dados para um espaço de alta dimensão, permitindo a classificação de problemas não linearmente separáveis. Tal transposição é realizada através do kernel trick utilizando o produto escalar convencional e o produto escalar kernelizado para dados intervalares. Experimentos com conjuntos de dados sintéticos, híbrido entre sintético e real e uma aplicação com um conjunto de dados intervalares real demonstram a funcionalidade e eficiência dessa abordagem.
13

Abordagem híbrida para representação de forma e textura baseada em dados simbólicos

ALMEIDA, Carlos Wilson Dantas de 13 March 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T18:31:53Z No. of bitstreams: 2 Tese Carlos Dantas.pdf: 9442070 bytes, checksum: 23ec0df3aeec907b3058315538fe9c19 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T18:31:53Z (GMT). No. of bitstreams: 2 Tese Carlos Dantas.pdf: 9442070 bytes, checksum: 23ec0df3aeec907b3058315538fe9c19 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-03-13 / CNPq / A análise de dados simbólicos (Symbolic Data Analysis) é uma nova abordagem na área de descoberta automática de conhecimento que visa desenvolver métodos para dados descritos por variáveis onde existem conjuntos de categorias, intervalos ou distribuições de probabilidade nas células das tabelas de dados. Os dados clássicos passam a ser agregados a fim de representar variáveis mais complexas como intervalos reais, conjuntos de categorias, histogramas, distribuições de probabilidade, entre outras. Esta tese introduz um novo algoritmo de agrupamento denominado Fuzzy Kohonen Clustering Network para dados simbólicos do tipo intervalo. São apresentadas duas versões do algoritmo. Na primeira versão, é introduzido o algoritmo clássico utilizando a abordagem da análise de dados simbólicos. Na segunda versão, é introduzido o cálculo de pesos para cada classe e para cada atributo da classe como principal alteração do algoritmo original. Um outro ponto abordado se refere ao desenvolvimento de novos descritores de imagens. Nos últimos anos, o uso de documentos e imagens digitais vêm tomando um espaço cada vez maior na sociedade. Em resposta a esses desafios, iremos investigar uma nova estratégia, desenvolvendo descritores de forma e textura junto com os algoritmos de agrupamento. Estes descritores são desenvolvidos nesta tese como uma abordagem baseada em dados simbólicos de tipo intervalo.
14

Orientação profissional no Ensino Médio: da concepção à prática

Cristina Pereira de Araújo, Luiza January 2003 (has links)
Made available in DSpace on 2014-06-12T17:22:55Z (GMT). No. of bitstreams: 2 arquivo5986_1.pdf: 428845 bytes, checksum: 2d117d08c9d6db20a8e1b461674e5785 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / O presente estudo tem como objetivo compreender a Prática da Orientação Profissional no Ensino Médio, a partir das concepções que orientadores e orientandos têm a respeito dessa prática. Buscamos compreender em que perspectivas caminham essas práticas, diante das principais mudanças que vêm ocorrendo em função da globalização da economia, das mudanças no mundo da cultura e suas repercussões no âmbito educacional, particularmente, no Ensino Médio e na Orientação Profissional, no que se refere à preparação do jovem para o mundo do trabalho e para a escolha da profissão, como espaços próprios ao exercício da cidadania. Trabalhamos com os orientadores e orientandos das 1ªs, 2ªs e 3ªs séries do Ensino Médio de duas escolas da rede privada da cidade do Recife. O estudo foi encaminhado na perspectiva da Pesquisa Qualitativa e a Análise dos Dados feita a partir da Análise Temática. Os resultados apontam para o redimensionamento da Prática da Orientação Profissional no Ensino Médio, no sentido de uma articulação efetiva com a prática pedagógica escolar e com o desenvolvimento do seu projeto político-pedagógico, bem como com a prática social mais ampla. Assim, ao reconhecer a especificidade da orientação numa vinculação com o mundo do trabalho e da cultura como categorias básicas formativas e explicativas da realidade, consideramos que elas são antes de tudo práticas relevantes para embasar o currículo do ensino médio como um todo e, desse modo, preparar o jovem com uma visão mais abrangente-analítica (relação global/local), com base na criticidade, competência técnico-científica, criatividade e compromisso social com o processo de emancipação humana dos sujeitos e da sociedade
15

Gestão escolar democrática na escola pública em Pernambuco: uma experiência da década de 80

CORREIA, Maria Zélia de Sousa January 2003 (has links)
Made available in DSpace on 2014-06-12T17:22:56Z (GMT). No. of bitstreams: 2 arquivo5993_1.pdf: 719396 bytes, checksum: 2139cc3c7841128a0455287383a55a6c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / A pesquisa Gestão Escolar Democrática na Escola Pública em Pernambuco: uma experiência da década de 80 teve como objetivo geral registrar a memória de uma experiência de gestão, supostamente democrática, no sistema escolar público de Pernambuco na década de 80, numa escola localizada na zona norte da cidade do Recife. À luz desse objetivo geral buscou-se identificar a concepção de gestão escolar veiculada no discurso oficial na referida década, em Pernambuco, nos Planos Estaduais de Educação assim como as formas de materialização na prática escolar, detectando, em memórias de educadores, as formas como a escola reagia às orientações da Secretaria de Educação, analisando as formas de participação da comunidade interna e externa na gestão da escola estudada, como forma de apreender fatores favoráveis à mudança na gestão escolar e analisar o papel do gestor na implantação de práticas democráticas.O fato de ter como objeto de estudo uma experiência singular vivenciada num passado recente apontou o estudo de caso como caminho metodológico adequado, utilizando a história oral temática que privilegia a coleta de depoimentos por meio de entrevistas orais, objetivando esclarecer o fenômeno estudado, a partir dos registros de memória de atores/autores partícipes da experiência. Na análise dos dados coletados através das entrevistas semi-estruturadas, fez-se uso de uma adaptação do método de Análise de Conteúdo de Bardin, que possibilita uma compreensão mais profunda de significados, o que é particularmente fértil quando aplicado ao campo das investigações sociais.No estudo realizado foi possível constatar indícios de uma gestão democrática convivendo com princípios e processos de uma administração técnico-burocrática centrada na figura do diretor. Entre os demais achados, vale ainda destacar: a desarticulação da escola com o contextosocial mais amplo, como se fora uma ilha, e a alienação do professorado face aos movimentos sociais da própria categoria profissional; o entendimento reducionista da gestão democrática como resultado de relações afetivas; a apreensão de que a liderança interna do gestor é insuficiente para o bom funcionamento da escola se não for somada à capacidade de articulação e ao prestígio político-social junto aos órgãos centrais, o que lastimavelmente evidencia a forte interferência político-partidária no desempenho da função gestora; a vivência da participação concedida , mesmo no âmbito das decisões negociadas; a desqualificação da escola de hoje e o saudosismo da escola do passado como forma de escamotear a aceitação da escola real e a discriminação velada que incide sobre a clientela de hoje (alunos de classe social baixa). Por outro lado, detectou-se que a autonomia se constitui numa conquista que implica um processo de aprendizagem, em que iniciativa e coragem se colocam como fatores que impulsionam a quebra de uma cultura pautada no poder hierárquico e na passividade frente às determinações superiores. Sintetizando, pode-se afirmar que as lições do passado, mesmo quando advindas de experiências consideradas avançadas para a época, precisariam passar por um processo crítico de desconstrução para serem reconstruídas sob novas bases, tendo por horizonte o efetivo exercício da democracia
16

Análise de dados poligonais: uma nova abordagem para dados simbólicos

SILVA, Wagner Jorge Firmino da 15 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T19:38:21Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Wagner Jorge Firmino da Silva.pdf: 2229812 bytes, checksum: cd0717859fc2db2f941c19518ac603d0 (MD5) / Made available in DSpace on 2018-06-25T19:38:21Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Wagner Jorge Firmino da Silva.pdf: 2229812 bytes, checksum: cd0717859fc2db2f941c19518ac603d0 (MD5) Previous issue date: 2017-02-15 / CAPES / Análise de Dados Simbólicos (ADS) é um paradigma que fornece uma estrutura para construir, descrever, analisar e extrair conhecimento de dados mais complexos como intervalos, histogramas, distribuição de pesos ou lista de valores (categorias). Tipicamente, os dados simbólicos surgem em duas situações, ao longo da coleta e processamento de dados. Alguns dados coletados são inerentemente simbólicos e outros se tornam dados simbólicos após o processamento de enormes conjuntos de dados, a fim de resumi-los através de classes de dados. Dados poligonais, propostos neste trabalho, são estruturas complexas multivariadas de dados que são capazes de armazenar informações de classes de dados. Este trabalho introduz uma nova estrutura para análise de dados poligonais no paradigma de análise de dados simbólicos. Mostramos que dados poligonais generalizam dados de intervalos bivariados. Para análise de dados poligonais estatísticas descritivas e um modelo de regressão linear são propostos. Estudo de simulação de Monte Carlo são realizados para verificar o desempenho da previsão em dados poligonais. Dois conjuntos de dados reais são apresentados. / Symbolic Interval Data (SDA) is a paradigm which provides a framework for building, describing, analyzing and extracting knowledge from data more complex such as intervals, histograms, distribution of weights or list of values (categories). Typically, symbolic data arise in two situations throughout data collecting and processing. Some data collected are inherently symbolic and some become symbolic data after processing of huge data sets in order to summarize them through classes of data. Polygonal data present in this work is a multivariate complex structure of data that is able to store information from classes of data. This work introduces a new framework for polygonal data analysis in the symbolic data analysis paradigm. We show that polygonal data generalizes bivariate interval data. To analyse polygonal data descriptive statistics and a linear regression model are proposed for symbolic polygonal data. A Monte Carlo study of simulation are present to verify the performance of prediction for polygonal data. Two real dataset are present.
17

Ensaios de modelos de regressão linear e não-linear para dados simbólicos de tipo intervalo

REYES, Dailys Maite Aliaga 14 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T20:27:45Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Dailys Maite Aliaga Reyes.pdf: 1031688 bytes, checksum: d2b38d73f1c20d04530a539f28c3bff9 (MD5) / Made available in DSpace on 2018-06-25T20:27:45Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Dailys Maite Aliaga Reyes.pdf: 1031688 bytes, checksum: d2b38d73f1c20d04530a539f28c3bff9 (MD5) Previous issue date: 2017-02-14 / FACEPE / A presente dissertação foi desenvolvida no marco da análise de dados simbólicos de tipo intervalo, especificamente, em modelos de regressão. Os dados simbólicos são extensões de tipos de dados clássicos. Em conjuntos de dados convencionais, os objetos são individualizados, enquanto em dados simbólicos estes são unificados por relacionamentos. Primeiramente, foi realizada uma revisão sobre dados desta natureza e das principais metodologias utilizadas para sua análise. Um novo modelo de precificação de ativos de capital (CAPM pelas siglas em inglês) foi proposto e testado para dados intervalares. A abordagem levou em conta a variação nos intervalos de preços diários em ativos de mercado, observando os preços máximos e mínimos ao invés dos preços de abertura ou fechamento que têm sido mais populares em aplicações econométricas com modelos de CAPM. Para os cálculos envolvendo intervalos de preços e retornos de ativos, as operações básicas da aritmética intervalar foram utilizadas. O modelo proposto (iCAPM) é uma das mais recentes aplicações CAPM intervalares, em que a estimativa do parâmetro β é um intervalo. Nesta ocasião, foi proposta uma nova interpretação para dito parâmetro em conformidade com a interpretação tradicional para o risco sistemático de ativos na área das finanças. Foram apresenta dos dois exemplos ilustrativos com os intervalos de preços diários da Microsoft e de Amazon, usando os retornos do mercado derivados do índice S&P500 do01denovembrode2013ao15dejaneirode2015. Em conformidade com os testes estatísticos aqui realizados, os resultados da aplicação do modelo CAPM intervalar (iCAPM) proposto são consistentes estatísticamente, comum a explicação confiável referente aos retornos dos ativos em questão e aos retornos do mercado. Conjuntamente, foi introduzido um modelo de regressão não-linear simétrica para dados simbólicos de tipo intervalo (SNLRM-IVD), o qual ajusta um único modelo de regressão não-linear aos pontos médios (centros) e amplitudes (ranges) dos intervalos considerando a distribuição de t-Student. O desempenho do modelo foi validado através do critério estatístico da magnitude média doerro relativo, desenvolvendo experimentos no âmbito de simulações de Monte Carlo em relação a vários cenários simbólicos com outliers. Além do mais, o modelo proposto foi ajustado a um conjunto real de dados intervalares. A principal característica deste modelo é que proporciona estimadores não sensíveis à presença de outliers. / The present dissertation was developed within the framework of the symbolic data analysis of interval-valued type, and it is specially related to regression models. Symbolic data are extensions of classic data types. In conventional data sets, objects are individualized, while in symbolic data they are unified by relationships. At first, a deep review about the nature of this kind of data and the main methodologies used for its analysis were performed. A new capital asset pricing model (CAPM) has been proposed and tested for interval symbolic data. The approach considered the daily variation of the price ranges in market assets according to the maximum and minimum prices rather than the opening or closing prices, which have been most popular in econometric applications with CAPM models. For calculations involving price ranges and asset returns, the basic operations concerning the interval arithmetic were used. The proposed model (iCAPM) is one of the most recent interval CAPM applications, in which the estimate of theβ-parameter is, in fact, an interval. On this occasion, a new interpretation was proposed for this parameter in accordance with the traditional interpretation for the systematic risk of the assets in the market. Two figurative examples involving the daily price ranges of Microsoft and Amazon have been presented, using the market returns from the S&P500 index in the period from November 1, 2013 to January 15, 2015. In accordance with the statistical tests performed here, the results of the application of the proposed model (iCAPM) are statistically consistent with a reliable explanation of the assets returns and the market returns in question. Secondly, a non-linear regression model for interval-valued data was introduced (SNLRM-IVD), which sets a single regression model to the midpoints (centers) and ranges of the intervals at once, considering thet-Student distribution. The performance of the model was validated through the statistical criterion of the average magnitude of the relative error, undergoing experiments in the scope of Monte Carlo simulations in relation to several symbolic scenarios with outliers. Finally, the proposed model was fitted to a real set of interval data. The main feature of this SNLRM-IVD is that it provides estimators that are not sensitive to the presence of outliers.
18

Métodos para incorporação da dependência espacial na análise de dados experimentais / Methods to incorporation of spatial dependency in analysis of experiments datas

Pilon, Ana Alice 20 September 2004 (has links)
A influência da heterogeneidade do solo na estimativa das diferenças entre os tratamentos é uma preocupação para os pesquisadores de campo. Na busca de alternativas para controlar esse fator e aumentar a precisão das comparações entre os tratamentos, o presente trabalho comparou a análise clássica ANOVA e alguns modelos espaciais que consideram a dependência no espaço entre as parcelas, levando em consideração suas posições geográficas na área experimental. Os modelos espaciais considerados no estudo foram: o modelo proposto por Papadakis, que consiste na adição de uma covariável construída a partir de observações em parcelas vizinhas, o modelo geoestatístico que consiste na adição de um efeito aleatório com correlação, dada por uma função da distância entre parcelas, e o modelo Markoviano que adiciona um efeito aleatório obtido a partir de observações em parcelas vizinhas. Os modelos foram ajustados a dados provenientes de dois ensaios em branco obtidos da literatura, aos quais foram adicionados efeitos arbitrários de tratamentos segundo delineamento inteiramente casualizado. Os efeitos dos tratamentos foram arbitrariamente adicionados a fim de simular um experimento real com o propósito de demonstração, para comparar a análise clássica (ANOVA) e os modelos espaciais. Nestas análises foi verificado que para os dados do ensaio em branco com 25 parcelas o modelo Markoviano forneceu maior precisão às estimativas dos contrastes entre os tratamentos, com grande diferença em relação aos resultados obtidos pelos demais modelos. Para o ensaio em branco, com 225 parcelas, o modelo Markoviano também foi o mais eficiente, porém, seus resultados foram próximos aos obtidos pelos outros modelos. O modelo geoestatístico junto aos métodos de estimação de máxima verossimilhança e máxima verossimilhança restrita foi o segundo melhor entre os modelos espaciais. Para a investigação dos resultados obtidos nos ajustes dos modelos aos dados dos ensaios em branco, foram realizadas simulações com alta, média e baixa dependência espacial entre as parcelas em condições experimentais similares aos dois conjuntos de dados investigados. Os resultados indicaram que os modelos espaciais oferecem uma maior precisão às estimativas dos contrastes entre as médias dos tratamentos, quando comparados à análise clássica, e o modelo geoestatístico junto aos métodos de estimação de parâmetros de máxima verossimilhança e de máxima verossimilhança restrita, foi na maioria das vezes o mais eficiente. O modelo Markoviano, em alguns casos, apresentou resultados mais precisos do que o geoestatístico, porém não foi suficientemente explorado nesse estudo sendo ainda mais trabalhoso do ponto de vista computacional. A fim de investigar se os efeitos dos tratamentos podem ser confundidos com a variação local, foi realizada uma simulação com 5000 diferentes aleatorizações dos efeitos de tratamentos aos dados do ensaio em branco com 25 parcelas, cujos resultados indicaram que os modelos espaciais oferecem estimativas mais precisas aos contrastes entre os tratamentos em comparação à análise clássica ANOVA / Soil heterogeneity's influence on the estimation of the treatment differences is one of the researcher's concerns in this field. The aim of this work is to find alternatives methods to control this problem. This work compares classical ANOVA to some other spatial models which consider the spatial dependence between plots according to their geographical position on the experimental area. Three spatial models were considered: firstly, the model proposed by Papadakis, which adds a covariate derived from observations in neighbours' plots. Secondly, a geostatistical model which includes a random effect with correlation given by a function of the distance between plots, and finally, a Markov model which includes a random effect derived from observations in neighbours' plots. The models were fit to two set of real data, derived from uniformity trials with treatments arbitrary effects added randomly. Treatments arbitrary effects were added to the real data to simulate a real experiment for the purposes demonstration, and to evaluate the classical ANOVA and spatial methods. In these analysis, the Markov model produced more precise estimates of the contrast between treatments, within a dataset of 25 plots. The difference between the models decreased as the dataset size increased, and for a dataset consisting of 225 plots the results were very similar. To investigate the results obtained from the models, data with three different levels of spatial dependence between plots were simulated, reproducing the experimental conditions of the two uniformity trials. The results indicated that spatial models are more precise in the estimation of the treatment effects when compared to the classical ANOVA, and in particular most of the times the geostatistical model together with maximum likelihood and restricted maximum likelihood estimation was the most efficient. The Markov model provided more precise results in some cases, but it was not deeply investigated in this study because it is too computationally demanding. In order to exclude a possible confounding effect due to a local variation, a simulation was carried with 5000 randomizations, and the results indicated that spatial models provided more precise estimates of the treatment contrasts when compare to the classical ANOVA.
19

Fator de correção para a distribuição da Deviance para dados de proporções / not available

Gimenes, Ana Paula Gomes da Silva 27 September 2000 (has links)
A análise de dados de proporções apresenta, em geral, certas dificuldades uma vez que a distribuição subjacente a tais dados pode ser considerada binomial, que não segue as pressuposições básicas para o ajuste de um modelo matemático. Algumas transformações são sugeridas, mas nem sempre bons resultados são obtidos. No enfoque de modelos lineares generalizados, a estatística que mede a qualidade do ajuste do modelo para os dados é chamada deviance. Ocorre que a distribuição da deviance é desconhecida. No entanto, para dados com distribuição binomial, pode-se aproximar a distribuição da deviance por uma distribuição qui-quadrado, mas tal aproximação não é boa para tamanhos pequenos de amostra. Para melhorar essa aproximação, alguns fatores de correção para os dados são sugeridos, mas os resultados obtidos ainda não são bons para pequenas amostras. Assim, o objetivo deste trabalho é propor um novo fator de correção para os dados seguindo uma distribuição binomial, de modo a se obter uma melhora na distribuição da deviance para qualquer tamanho de amostra. Para isto, adiciona-se uma constante à variável resposta e, através do valor esperado da deviance, calcula-se tal constante de modo a reduzir o erro cometido na aproximação. Simulações da distribuição binomial e o cálculo da deviance são feitos e QQ-plots são utilizados para a comparação com a distribuição qui-quadrado / not available
20

Problemas inversos em física experimental: a secção de choque fotonuclear e radiação de aniquilação elétron-pósitron / Inverse problems in experimental physics: a section of the fotonuclear shock and radiation of electron-positron annihilation.

Takiya, Carlos 27 June 2003 (has links)
Os métodos para resolução de Problemas Inversos aplicados a dados experimentais (Regularização, Bayesianos e Máxima Entropia) foram revistos. O procedimento de Mínimos Quadrados com Regularização por Mínima Variância (MQ-RMV) foi desenvolvido para resolução de Problemas Inversos lineares, tendo sido aplicado em: a) espectros unidimensionais simulados; b)determinação da secção de choque ANTPOT.34 S (, xn) a partir de yield de bremsstrahlung; c)análise da radiação de aniquilação elétron-pósitron em alumínio de experimento de coincidência com dois detetores semicondutores. Os resultados são comparados aos obtidos por outros métodos. / The methods used to solve inverse problems applied to experimental data (Regularization, Bayesian and Maximum Entropy) were revised. The Least-Squares procedure with Minimum Variance Regularization (LS-MVR) was developed to solve linear inverse problems, being applied to: a)simulated one-dimensional histograms; b) 34S (, xn) cross-section determination radiation in Aluminum from coincidence experiments with two semiconductor detectors. The results were compared to that obtained by other methods.

Page generated in 0.0732 seconds