• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 5
  • 2
  • Tagged with
  • 108
  • 108
  • 28
  • 20
  • 19
  • 17
  • 17
  • 17
  • 17
  • 15
  • 14
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Estimativas de máxima verosimilhança e bayesianas do número de erros de um software.

Silva, Karolina Barone Ribeiro da 24 February 2006 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1 DissKBRS.pdf: 617246 bytes, checksum: 9436ee8984a49f5df072023b717747c6 (MD5) Previous issue date: 2006-02-24 / In this work we present the methodology of capture-recapture, under the classic and bayesian approach, to estimate the number of errors of software through inspection by distinct reviewers. We present the general statistical model considering independence among errors and among reviewers and consider the particular cases of equally detectable errors (homogeneous) and reviewers not equally e¢ cient (heterogeneous) and of errors not equally detectable (heterogeneous) and equally e¢ cient reviewers (homogeneous). After that, under the assumption of independence and heterogeneity among errors and independence and homogeneity among reviwers, we supposed that the heterogeneity of the errors was expressed by a classification of these in easy and di¢ cult of detecting, admitting known the probabilities of detection of an easy error and of a di¢ cult error. Finally, under the hypothesis of independence and homogeneity among errors, we presented a new model considering heterogeneity and dependence among reviewers. Besides, we presented examples with simulate and real data. / Nesta dissertação apresentamos a metodologia de captura-recaptura, sob os enfoques clássico e bayesiano, para estimar o número de erros de um software através de sua inspeção por revisores distintos. Apresentamos o modelo estatístico geral considerando independência entre erros e entre revisores e consideramos os casos particulares de erros igualmente.detectáveis (homogêneos) e revisores não igualmente eficientes (heterogêneos) e de erros não igualmente detectáveis (heterogêneos) e revisores igualmente eficientes (homogêneos). Em seguida, sob a hipótese de heterogeneidade e independência entre erros e homogeneidade e independência entre revisores, supusemos que a heterogeneidade dos erros era expressa por uma classificação destes em fácil e difícil de detectar, admitindo conhecidas as probabilidades de detecção de um erro fácil e de um erro difícil. Finalmente, sob a hipótese de independência e homogeneidade entre erros, apresentamos um novo modelo considerando heterogeneidade e dependência entre revisores. Além disso, apresentamos exemplos com dados simulados e reais.
102

Um modelo de risco proporcional dependente do tempo

Parreira, Daniela Ribeiro Martins 30 March 2007 (has links)
Made available in DSpace on 2016-06-02T20:06:00Z (GMT). No. of bitstreams: 1 1662.pdf: 571364 bytes, checksum: 6091268473b4a7cb920748fd364c2a99 (MD5) Previous issue date: 2007-03-30 / Survival data analysis models is used to study experimental data where, normally, the variable "answer"is the time passed until an event of interest. Many authors do prefer modeling survival data, in the presence of co-variables, by using a hazard function - which is related with its interpretation. The Cox model (1972) - most commonly used by the authors - is applicable when the fail rates are proportional. This model is very flexible and used in the survival analysis. It can be easily extended to, for example, incorporate the time-dependent co-variables. In the present work we propose a proportional risk model which incorporates a time-dependent parameter named "time-dependent proportional risk model". / A análise de sobrevivência tem por objetivo estudar dados de experimento em que a variável resposta é o tempo até a ocorrência de um evento de interesse. Vários autores têm preferido modelar dados de sobrevivência na presença de covariáveis por meio da função de risco, fato este relacionado à sua interpretação. Ela descreve como a probabilidade instantânea de falha se modifca com o passar do tempo. Nesse contexto, um dos modelos mais utilizados é o modelo de Cox (Cox, 1972), onde a suposição básica para o seu uso é que as taxas de falhas sejam proporcionais. O modelo de riscos proporcionais de Cox é bastante flexível e extensivamente usado em análise de sobrevivência. Ele pode ser facilmente estendido para incorporar, por exemplo, o efeito de covariáveis dependentes do tempo. Neste estudo, propõe-se um modelo de risco proporcional, que incorpora um parâmetro dependente do tempo, denominado modelo de risco proporcional dependente do tempo. Uma análise clássica baseada nas propriedades assintóticas dos estimadores de máxima verossimilhança dos parâmetros envolvidos é desenvolvida, bem como um estudo de simulação via técnicas de reamostragem para estimação intervalar e testes de hipóteses dos parâmetros do modelo. É estudado o custo de estimar o efeito da covariável quando o parâmetro que mede o efeito do tempo é considerado na modelagem. E, finalizando, apresentamos uma abordagem do ponto de vista Bayesiano.
103

Distribuição normal assimétrica para dados de expressão gênica

Gomes, Priscila da Silva 17 April 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2390.pdf: 3256865 bytes, checksum: 7ad1acbefc5f29dddbaad3f14dbcef7c (MD5) Previous issue date: 2009-04-17 / Financiadora de Estudos e Projetos / Microarrays technologies are used to measure the expression levels of a large amount of genes or fragments of genes simultaneously in diferent situations. This technology is useful to determine genes that are responsible for genetic diseases. A common statistical methodology used to determine whether a gene g has evidences to diferent expression levels is the t-test which requires the assumption of normality for the data (Saraiva, 2006; Baldi & Long, 2001). However this assumption sometimes does not agree with the nature of the analyzed data. In this work we use the skew-normal distribution described formally by Azzalini (1985), which has the normal distribution as a particular case, in order to relax the assumption of normality. Considering a frequentist approach we made a simulation study to detect diferences between the gene expression levels in situations of control and treatment through the t-test. Another simulation was made to examine the power of the t-test when we assume an asymmetrical model for the data. Also we used the likelihood ratio test to verify the adequability of an asymmetrical model for the data. / Os microarrays são ferramentas utilizadas para medir os níveis de expressão de uma grande quantidade de genes ou fragmentos de genes simultaneamente em situações variadas. Com esta ferramenta é possível determinar possíveis genes causadores de doenças de origem genética. Uma abordagem estatística comumente utilizada para determinar se um gene g apresenta evidências para níveis de expressão diferentes consiste no teste t, que exige a suposição de normalidade aos dados (Saraiva, 2006; Baldi & Long, 2001). No entanto, esta suposição pode não condizer com a natureza dos dados analisados. Neste trabalho, será utilizada a distribuição normal assimétrica descrita formalmente por Azzalini (1985), que tem a distribuição normal como caso particular, com o intuito de flexibilizar a suposição de normalidade. Considerando a abordagem clássica, é realizado um estudo de simulação para detectar diferenças entre os níveis de expressão gênica em situações de controle e tratamento através do teste t, também é considerado um estudo de simulação para analisar o poder do teste t quando é assumido um modelo assimétrico para o conjunto de dados. Também é realizado o teste da razão de verossimilhança, para verificar se o ajuste de um modelo assimétrico aos dados é adequado.
104

Classe de distribuições série de potências inflacionadas com aplicações

Silva, Deise Deolindo 06 April 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2510.pdf: 1878422 bytes, checksum: 882e21e70271b7a106e3a27a080da004 (MD5) Previous issue date: 2009-04-06 / This work has as central theme the Inflated Modified Power Series Distributions, where the objective is to study its main properties and the applicability in the bayesian context. This class of models includes the generalized Poisson, binomial and negative binomial distributions. These probability distributions are very helpful to models discrete data with inflated values. As particular case the - zero inflated Poisson models (ZIP) is studied, where the main purpose was to verify the effectiveness of it when compared to the Poisson distribution. The same methodology was considered for the negative binomial inflated distribution, but comparing it with the Poisson, negative binomial and ZIP distributions. The Bayes factor and full bayesian significance test were considered for selecting models. / Este trabalho tem como tema central a classe de distribuições série de potências inflacionadas, em que o intuito é estudar suas principais propriedades e a aplicabilidade no contexto bayesiano. Esta classe de modelos engloba as distribuições de Poisson, binomial e binomial negativa simples e as generalizadas e, por isso é muito aplicada na modelagem de dados discretos com valores excessivos. Como caso particular propôs-se explorar a distribuição de Poisson zero inflacionada (ZIP), em que o objetivo principal foi verificar a eficácia de sua modelagem quando comparada à distribuição de Poisson. A mesma metodologia foi considerada para a distribuição binomial negativa inflacionada, mas comparando-a com as distribuições de Poisson, binomial negativa e ZIP. Como critérios formais para seleção de modelos foram considerados o fator de Bayes e o teste de significância completamente bayesiano.
105

Regiões de incerteza para a curva ROC em testes diagnósticos

Vaz, Janaina Cândida Lopes 03 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2711.pdf: 1912872 bytes, checksum: 297e56759e248cb7127eae6094c0d821 (MD5) Previous issue date: 2009-03-03 / Financiadora de Estudos e Projetos / Diagnostic tests are methods capable of indicating the presence or absence of a disease, with a probability of error. The performance of a diagnostic test can be verified by some indicator, as: the specificity, the sensitivity and the ROC curve. A graph of the specificity complement versus sensitivity is called as ROC curve. The ROC curve demonstrates the test s ability to discriminate the different disease diagnosis, therefore it is a graphical tool that is used to assess the performance of a test. We define three types of confidence regions around the ROC curve: the punctual, the regional and the global. In some instances, depending on the clinical needs, the decision is taken under an specific region of the ROC curve. We review some procedures for estimating confidence region for the ROC curve and we propose two new methods (optimized averages and averages thresholds optimized) to estimating that region. We use the bootstrap method to search for a confidence region around the ROC curve. Using numerical examples, we apply the methods an compare their performance. / Testes diagnósticos são métodos capazes de indicar a presença ou ausência de uma doença, com uma probabilidade de erro. O desempenho de um teste diagnóstico pode ser verificado por algum indicador, como: a especificidade, a sensibilidade e a curva ROC. Um gráfico do complemento da especificidade versus sensibilidade é chamado de curva ROC. A curva ROC demonstra a habilidade do teste em discriminar os diferentes diagnósticos da doença, logo é uma ferramenta gráfica que serve para avaliar o desempenho de um teste. Definimos três tipos de regiões de confiança em torno da curva ROC: as pontuais, as regionais e as globais. Em algumas situações, de acordo com a necessidade do clínico, uma decisão é tomada sobre uma determinada região específica da curva ROC. Revisamos alguns procedimentos para estimar a região de confiança para a curva ROC e propomos dois novos métodos (médias otimizadas e médias limiares otimizadas) para estimar essa região. Usamos o método bootstrap para buscar uma região de confiança em torno da curva ROC. Usando exemplos numéricos, aplicamos os métodos para comparar seus desempenhos.
106

Eliminação de parâmetros perturbadores na estimação de tamanhos populacionais

Festucci, Ana Claudia 15 January 2010 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 2751.pdf: 886213 bytes, checksum: 2f07f7329a7f25f1759ddb5d7a6edd66 (MD5) Previous issue date: 2010-01-15 / Financiadora de Estudos e Projetos / In this study, we used the capture-recapture procedure to estimate the size of a closed population. We analysed three di_erent statistics models. For each one of these models we determined - through several methods of eliminating nuisance parameters - the likelihood function and the pro_le, conditional, uniform integrated, Je_reys integrated and generalized integrated likelihood functions of the population size, except for the last model where we determined a function that is analogous to the conditional likelihood function, called integrated restricted likelihood function. In each instance we determined the respectives maximum likelihood estimates, the empirical con_dence intervals and the empirical mean squared errors of the estimates for the population size and we studied, using simulated data, the performances of the models. / Nesta dissertação utilizamos o processo de captura-recaptura para estimar o tamanho de uma população fechada. Analisamos três modelos estatísticos diferentes e, para cada um deles, através de diversas metodologias de eliminação de parâmetros perturbadores, determinamos as funções de verossimilhança e de verossimilhança perfilada, condicional, integrada uniforme, integrada de Jeffreys e integrada generalizada do tamanho populacional, com exceção do último modelo onde determinamos uma função análoga à função de verossimilhança condicional, denominada função de verossimilhança restrita integrada. Em cada capítulo determinamos as respectivas estimativas de máxima verossimilhança e construímos intervalos de confiança empíricos para o tamanho populacional, bem como determinamos os erros quadráticos médios empíricos das estimativas e estudamos, através de dados simulados, as performances dos modelos.
107

Increasing image resolution for wire-mesh sensor based on statistical reconstruction / Aumento de resolução de imagem de sensores wire-mesh baseado em reconstrução estatística

Dias, Felipe de Assis 04 August 2017 (has links)
CNPq; FUNTEF-PR / Sensores wire-mesh (WMS) são capazes de gerar imagens da seção transversal de escoamentos multifásicos e tem sido amplamente utilizados para investigar fenômenos de escoamentos em plantas piloto. Tais dispositivos são capazes de medir parâmetros de escoamento tais como distribuição da fração de fase (por exemplo fração de gás ou líquido) e visualizar escoamentos multifásicos com alta resolução temporal e espacial. Sendo portanto, uma ferramenta importante para investigações de escoamentos mais detalhadas. No entanto, seu princípio de medição é baseado em eletrodos intrusivos posicionados dentro do tubo onde o escoamento flui. A resolução da imagem gerada pelo sensor é dada pelo número de cruzamentos entre os fios transmissores e receptores. Em muitos processos, no entanto, efeitos de intrusividade de tal sensor pode ser uma limitação no seu uso. Por isso, um número reduzido de fios poderia permitir uma expansão do campo de aplicações do sensor wire-mesh. Por essa razão, o presente trabalho sugere um método de reconstrução de imagem para aumentar a resolução dos dados de um sensor wire-mesh com um número de eletrodos menor que o ótimo. Desta forma, os efeitos de intrusividade no processo investigado poderiam ser reduzidos. O método de reconstrução é baseado em uma abordagem estatística de regularização e é conhecido como Maximum a Posteriori (MAP). Dados de escoamento de um WMS 16x16 são usados para determinar um modelo gaussiano multivariável do escoamento, o qual são empregados como regularização na reconstrução. Uma matriz de sensitividade é estimada pelo método de elementos finitos (FEM) para incorporar o algoritmo MAP. Dados experimentais são usados para validar o método proposto, sendo comparado com interpolação do tipo spline. Resultados experimentais mostram que a reconstrução por MAP possui um desempenho melhor do que interpolação do tipo spline, alcançando desvios de fração de vazio dentro de uma faixa de ± 10% na grande maioria dos pontos de operação. A validação foi executada em um loop de escoamento horizontal água/gás em regime intermitente (golfada). / Wire-mesh sensors (WMS) are able to generate cross-sectional images of multiphase flow and have been widely used to investigate flow phenomena in pilot plant studies. Such devices are able to measure flow parameters such as phase fraction (e.g. gas/liquid fraction) distribution and visualize multiphase flows with high temporal and spatial resolution. Hence, being important tool for detailed flow investigation. However, its sensing principle is based on intrusive electrodes placed inside the pipe where a multiphase flow streams. The image resolution generated by the sensor is given by the number of crossing points formed by the transmitter and receptor wires. In many processes, however, the intrusive effect of such sensor might be a limitation on its use. Therefore, a reduced number of wires could possibly increase the application field of wire-mesh sensors. For this reason, the present work presents an image reconstruction method to increase resolution of WMS data with less than optimal number of electrode wires. In this way, a reduction of intrusive effects on the process under investigation may be achieved. The reconstruction method is based on statistical view of regularization and is known as Maximum a Posterior (MAP). 16x16 WMS flow data are used to determine a Multivariate Gaussian flow model, which in turn is used as regularization in the reconstruction. A sensitive matrix is estimated by finite element method (FEM) to incorporate MAP algorithm. Experimental data are used to validate the proposed method, which is compared with spline interpolation. Experimental results show that the MAP reconstruction performs better than interpolation and achieves deviation in gas void fraction estimation in the range of ±10% in the vast majority of operating points. The tests were performed in a horizontal water-gas flow loop operating at intermittent (slug) flow regime.
108

A energia elétrica como instrumento de desenvolvimento humano e o desafio ao plano nacional de energia brasileiro / Electrical energy as a tool for human development and the challenge to the brazilian energy plan

Zuba, Márcio Eduardo 08 February 2017 (has links)
Este trabalho tem por objeto de estudo a correlação entre a utilização per capita de energia elétrica e o Índice de Desenvolvimento Humano (IDH). O objetivo geral da pesquisa é avaliar a compatibilidade das premissas do Plano Nacional de Energia (PNE) brasileiro, em relação à utilização de energia elétrica, com o desafio da elevação do IDH nacional ao nível “muito alto” – o mais elevado conforme a terminologia atual das Nações Unidas. Quanto ao método, a pesquisa é, em relação aos seus objetivos, preponderantemente descritiva, e quantiqualitativa no que se refere ao estudo do problema. Realizou-se tratamento estatístico de diferentes aspectos correlacionados à energia elétrica e ao IDH, de modo a estabelecer padrões significativos e universais dessa correlação, os quais parecem possíveis de serem previstos mediante utilização de fórmula matemática, a qual tornaria então possível avaliar o desenvolvimento humano utilizando a energia elétrica como parâmetro. Verificou-se que a proporção da utilização de energia elétrica é cada vez mais intensa em relação ao total de utilização de energia primária, o que se explica pela absoluta indispensabilidade, motivada pela versatilidade e disponibilidade, da primeira, e definiu-se um valor objetivo mínimo à utilização per capita de energia elétrica, ponderado em função da intensidade energética – no caso, 222 kWh –, necessário ao status de desenvolvimento humano “muito alto”. Definiram-se ainda duas fórmulas matemáticas – a primeira delas possui maior versatilidade descritiva, pois envolve equação logarítmica, enquanto a segunda, simplificada, utiliza função potência – capazes de individualmente estimar, em função do valor de utilização de energia e compondo uma base comparativa global, o IDH correspondente do ente analisado. Ambas são capazes de auxiliar na compreensão, ainda que em cognição preliminar, acerca da situação energética do ente sob análise, podendo ser utilizadas como indicador de possíveis direcionamentos de políticas energéticas que se pretendam voltadas ao desenvolvimento humano. Comprovou-se a acurácia da fórmula logarítmica em termos globais e históricos e, na sequência, verificou-se quão compatíveis são entre si o Plano Nacional de Energia e o IDH “muito alto”, em médio prazo e tendo como cenário os estados brasileiros. Concluiu-se, quanto a este objetivo geral, que a evolução histórica de oferta e demanda de energia elétrica no País é compatível com os números projetados pelo PNE, e que estes são compatíveis com o IDH “muito alto” – para atingir tal nível seriam necessários cerca de 720 TWh anuais, enquanto o PNE projeta, para 2030, 971 TWH e a evolução histórica das últimas duas décadas indica, para o mesmo ano, aproximadamente 830 TWh. O eventual atingimento desse nível de IDH deve, contudo, ser relativizado, pois provavelmente não seria suficiente para tirar o Brasil da atual posição de catching-up em relação aos países desenvolvidos. / This work studies the correlation between the per capita use of electrical energy and the Human Development Index (HDI). The main research objective is to evaluate the compatibility between the Brazilian National Energy Plan’s (PNE) goals, regarding the use of electrical energy, and the challenge of increasing the national HDI towards the “very high” level – the highest one according to the current United Nations terminology. As for the method, the research is, regarding its objectives, predominantly descriptive, and quanti-qualitative in relation to the problem studied. Several statistical aspects correlated to electrical energy and HDI were statistically treated, in such a way as to define significant, universal patterns of this correlation, which seem to be possible to predict through a mathematical formula that would then make it possible to evaluate human development using electrical energy as a parameter. It was noted that the proportion of electrical energy is increasingly bigger in relation to the total amount of primary energy, something explained by the absolute indispensability, through versatility and availability, of the former, and an objective minimum per capita value of electrical energy use – in this case, 222 kwh –, weighted as a function of energy intensity, was defined as necessary to reach a “very high” HDI. Besides it, two formulae were developed, both capable of individually estimate an entity’s HDI from the weighted value of electrical energy use. The first of them is more descriptively versatile, by using a logarithmic equation, while the second one is a simplified version, based on a potency function. Both formulae are capable of helping, yet in a preliminary cognition, to understand the energetic situation of the entity under analysis, possibly serving as decision support for energy policies aiming at human development. The logarithmic formula was checked globally and historically for accuracy, and after that it was used to verify how compatible are the Brazilian Energy Plan and a “very high” HDI, on the medium term and on the framework of the Brazilian states. It was concluded that, regarding this general objective, the historical evolution of national electrical energy supply and demand is compatible with the PNE projected numbers, which, on their turn, are compatible with a “very high” HDI – to reach such a level would require about 720 TWh per year, while the PNE forecasts, to 2030, 971 TWh, and the historical evolution of the last two decades indicates, for the same year, approximately 830 TWh. The possible attainment of this HDI level, however, should be put into perspective, because it probably would not be enough to avoid the catching-up situation Brazil is currently facing in relation to developed countries.

Page generated in 0.0381 seconds