• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Verificação da performance de modelos APARCH assimétricos aplicados a dados financeiros

Gasparini, Daniela Caetano de Souza 01 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1 5123.pdf: 958057 bytes, checksum: 23f5ad95404afd58fe48eeb517ef5b41 (MD5) Previous issue date: 2013-04-01 / Financiadora de Estudos e Projetos / The volatility of financial assets changes over time, indicating the specification of regime change in volatility models. Furthermore, the presence of asymmetry in the returns of the financial market has been recognized in the financial literature of recent decades. In this paper, we present some heteroscedastic models with regime change, considering that the error component of these models follows Skew Laplace distribution, as well as the process of estimating its parameters via maximum likelihood and Bayesian methods. / A volatilidade dos ativos financeiros se altera ao longo do tempo, sinalizando a especificação de mudança de regime para modelos de volatilidade. Além disso, a presença de assimetria nos retornos do mercado financeiro tem sido reconhecida na literatura financeira das últimas décadas. Neste trabalho, apresentamos alguns modelos heterocedásticos com mudança de regime, considerando que a componente do erro desses modelos segue distribuição Laplace assimétrica, bem como o processo de estimação de seus parâmetros via máxima verossimilhança e métodos bayesianos.
142

Modelo com mistura de multinomiais aplicado à identificação de proteínas similares.

Coimbra, Ricardo Galante 24 February 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:08Z (GMT). No. of bitstreams: 1 DissRGC.pdf: 2581095 bytes, checksum: 4a2f54d065969def7422a978d84a16f4 (MD5) Previous issue date: 2005-02-24 / The proteins are important molecules from the cells, whereas they take part since the construction of cell´s framing until the transmission of the genetic information between the generations. A protein can be characterized by its function and its function is determined by the sequence of amino acids that determines its structure. To determined the protein's function is important, for instance, in a research about the cure of diseases or searching for new drugs. In this research we use a bayesian statistical methodology with mixture of multinomial and latent variables to identify proteins with similar function. We use simulations to verify the performance of the statistical model for identifying the similar proteins. At the end we apply the modeling to a real data set. / As proteínas são moléculas importantes das células, pois participam desde a construção das estruturas celulares até a transmissão de informações genéticas entre gerações. Uma proteína pode ser caracterizada pela sua função, sendo que esta função é determinada pela sequência de aminoácidos que compõe a sua estrutura. Determinar a função protéica é importante quando, por exemplo, se pesquisa a cura de doenças ou se pesquisa a fabricação de novos medicamentos. Neste trabalho utilizamos uma metodologia bayesiana de inferência estatística para inferir sobre o modelo com mistura de distribuições multinomiais e variáveis latentes para identificar proteínas com funções similares. Verificamos a performance da modelagem proposta em separar em grupos as proteínas com funções similares através de simulação.
143

Uso do processo gama para dados de sobrevivência.

Uêda, Shirley Tieko 20 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 DissSTU.pdf: 632638 bytes, checksum: b51966b8476d470ced42e354cadf0a65 (MD5) Previous issue date: 2005-01-20 / Financiadora de Estudos e Projetos / In this dissertation, we introduce classical and Bayesian approaches to get inferences on the parameters of interest, considering exponential and Weibull distributions for the lifetimes. For a Bayesian analysis, we assume a gamma process for the individual rates considering type II censoring data and the presence of covariates. We also consider ac- celerated life tests assuming an inverse power law model and an exponential distribution for the lifetimes. The proposed methodology in illustrated in three examples. / Nesta dissertação, apresentamos uma análise clássica e uma abordagem Bayesiana para obter inferências dos parâmetros de interesse, considerando as distribuições exponencial e de Weibull para os tempos de sobrevivência. Assumimos um processo gama para as taxas indivíduais e a presença de covariadas relacionadas com os tempos de sobrevivência com censuras do tipo II. Alguns conceitos e resultados de análise estatística de testes de vida acelerados são apresentados, em particular, um estudo sobre o Modelo de Lei de Potência Inversa, con- siderando que os tempos de sobrevivência são ajustados por uma distribuição exponencial. A metodologia proposta neste trabalho está ilustrada a três conjuntos de dados, onde dois são referentes à análise de sobrevivência com dados médicos e o outro a dados de confiabilidade.
144

Capacidade preditiva de Modelos Credit Scoring em inferência dos rejeitados

Prazeres Filho, Jurandir 28 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6034.pdf: 941825 bytes, checksum: 6d06b85571d5cab86cee2ed1c1d699da (MD5) Previous issue date: 2014-03-28 / Universidade Federal de Sao Carlos / Granting credit to an applicant is a decision made in a context of uncertainty. At the moment the lender decides to grant a loan or credit sale there is always the possibility of loss, and, if it is associated with a probability, the decision to grant or not credit will be more reliable. In order to aid the decision to accept or not the request for applicants are used the credit scoring models, which estimate the probability of loss associated with granting credit. But one of the problems involving these models is that only information about the applicants accepted are used, which causes a sampling bias, because the rejected applicants are discarded. With the aim to solve this problem it can use rejected inference, which are considered individuals who have had credit application rejected. However, only considering rejected inference and one method of modeling data, usually, is not sufficient to get satisfactory predictive measures, and thus, were used combined results of three methods, logistic regression, analysis probit and decision tree. The purpose of this combination were to increase the predictive perfomance and the metrics used were sensitivity, specificity , positive predictive value, negative predictive value and accuracy. Through the application in data sets we concluded that the use of the combined results increased the predictive performance, specially regarding to sensitivity. / A concessão de crédito e uma decisão a ser tomada num contexto de incertezas. No momento em que o credor decide conceder um empréstimo, realizar um financiamento ou venda a prazo sempre existe a possibilidade de perda, e, se for atribuída uma probabilidade a esta perda, a decisão de conceder ou não credito será mais confiável. Com o objetivo de auxiliar a tomada de decisão em relação ao pedido de credito dos solicitantes são utilizados os modelos credit scoring, os quais estimam a probabilidade de perda associada a concessão de credito. Um dos problemas envolvendo estes modelos e que somente informações a respeito dos proponentes aceitos são utilizadas, o que causa um viés amostral, pois, os solicitantes recusados são descartados no processo de modelagem. Com intuito de solucionar este problema tem-se a inferência dos rejeitados, em que são considerados os indívíduos que tiveram pedido de credito rejeitado. No entanto, considerar a inferência dos rejeitados e o uso de somente um método de modelagem de dados, muitas vezes, não e suficiente para que se tenha medidas preditivas satisfatórias. Desta forma, foram utilizados resultados combinados de três metodologias, regressão logística, probit e árvore de decisão/classificação concomitantemente a utilização dos métodos de inferência dos rejeitados que incluem o uso de variável latente, reclassificação, parcelamento e ponderação. O objetivo dessa combinação foi aumentar a capacidade preditiva e as métricas utilizadas foram a sensibilidade, especificidade, valor preditivo positivo, valor preditivo negativo e acurácia. Através da aplicação em conjuntos de dados concluiu-se que a utilização dos resultados combinados aumentou a capacidade preditiva, principalmente, em relação a sensibilidade.
145

Uso de métodos bayesianos em testes de vida acelerados no controle da qualidade de produtos industriais.

Vieira, Denilton da Silva 03 March 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissDSV.pdf: 2343078 bytes, checksum: 2c801ff20741d65287919e8cf1d5b178 (MD5) Previous issue date: 2006-03-03 / Financiadora de Estudos e Projetos / In this work, we introduce a Bayesian approach for quality control of industrial products, assuming units in test under stress levels higher than the usual level. We assume di¤erent distributions for the lifetimes of the units under a type II censoring mechanism and a general stress-response model that includes the usual accelerated life test models. Using a predictive density of a future observation, we present some criteria to be used by engineers in the quality control of a batch of industrial products. These criteria permit a choise for the best time in test or for the best stress level in the quality control test. The quality control procedure is based on the observed proportion of failures tested during a specified time and a specified stress level. We use the software WinBugs (Spiegelhalter et al, 1999) to obtain the posterior summaries of interest. keywords: Accelerated lifetime test, Bayesian Inference, Markov Chain Monte Carlo, Quality Control. / Neste trabalho propomos uma metodologia Bayesiana de controle da qualidade de produtos industriais, considerando unidades em teste sob níveis de estresse mais severos que os usualmente utilizados. Assumimos algumas distribuições para os tempos de vida das unidades, dados sob esquema de censura do tipo II e um modelo estresse-resposta geral que inclui alguns dos modelos mais utilizados em testes acelerados. Usando a densidade preditiva para uma observação futura, apresentamos um critério para ser usado por engenheiros no controle da qualidade de um determinado lote de produtos industriais. Este critério permite escolher o tempo necessário para o teste ou o nível de estresse no teste de controle da qualidade. O controle da qualidade de um lote de componentes poderá ser baseado na proporção de unidades que falham quando testadas durante o período de tempo fixo, sob o nível especificado de estresse. Uma implementação do código WinBugs (ver por exemplo, Spiegelhalter et al., 1999) é considerada.
146

Uma modificação da extensão do algoritmo AID para modelos lineares generalizados usando reamostragem Bootstrap

Presotti, Cátia Valéria 03 March 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissCVP.pdf: 769628 bytes, checksum: 82a04371dc9ee3d93afa897684220b87 (MD5) Previous issue date: 2006-03-03 / Financiadora de Estudos e Projetos / One of the most frequently situation found by researchers is to find groups of similar individuals. The cluster analysis is a set of statistical techniques that identify mutually exclusive subgroups or classes over individuals, based on their similarity. When then main is to group means of treatments we can use contrasts, multiple comparitions or clustering techniques as the SCOTT-KNOTT test and AID (Automatic Interaction Detector) technique. In this work we focus on the comparition of the simulated power function of the asymptotic test and also of the bootstrap test for the extension of the AID algorithm for generalized linear models. The bootstrap power function over main the asymptotic power when the number of binomial sample is equal to one, and the number of treatments is equal to 8 and 12, in a completed randomized experiment with a single factor for binomial variables. / Uma das situações mais freqüentes encontradas por pesquisadores de diversas áreas do conhecimento é formar grupos de indivíduos que sejam, de alguma maneira, similares entre si. A análise de agrupamento é um conjunto de técnicas estatísticas que identificam subgrupos ou classes distintas de indivíduos mutuamente excludentes com base nas similaridades existentes entre os indivíduos, ou seja, os mais semelhantes pertencem ao mesmo grupo. No caso específico de uma única variável resposta e diversas explicativas, vários procedimentos podem ser utilizados, entre eles: contrastes de médias, comparações múltiplas ou técnicas aglomerativas, como teste de SCOTTKNOTT e a técnica AID - (Automatic Interaction Detector). As técnicas de agrupamento de médias podem não ser adequadas na aplicação em dados com distribuição diferente da normal. Nesse caso, utilizou-se a extensão do algoritmo AID, no qual se baseia o método de SCOTT-KNOTT. Essa extensão é usada em modelos lineares generalizados e adota, como medida de homogeneidade de grupos, uma estatística baseada na função desvio que tem assintoticamente distribuição quiquadrado. Neste trabalho, apresentam-se o método de reamostragem bootstrap adaptado para a extensão do algoritmo AID, sua curva poder simulada e a curva poder simulada assintótica, considerando um delineamento inteiramente ao acaso, com tamanho da amostra binomial nb, com r tratamentos e nr repetições por tratamento. Os resultados do estudo por simulação indicam que, conforme aumenta-se o tamanho da amostra binomial, o poder simulado dos dois testes aumenta rapidamente. Por outro lado, esse comportamento é mais acentuado conforme aumenta-se o número de tratamentos. Vale ressaltar que, para o caso extremo em que o tamanho da binomial é igual a 1 e o número de tratamentos igual a 8 e 12, a curva poder simulada do teste bootstrap é destacadamente superior à curva poder do teste assintótico para o número de repetições por tratamento estudado.
147

Monovacâncias em grafite por cálculos de primeiros princípios

Oeiras, Rodrigo Yoshikawa 26 February 2007 (has links)
Made available in DSpace on 2016-06-02T20:16:44Z (GMT). No. of bitstreams: 1 2158.pdf: 2719646 bytes, checksum: 6243269038c3ac5dd5f45207f6bd8c42 (MD5) Previous issue date: 2007-02-26 / Financiadora de Estudos e Projetos / Neste trabalho, apresentamos os estudos realizados para compreender os mecanismos que geram o momento magnético em folhas de grafeno com monovacância. Notamos que o momento magnético que surgiu na folha de grafeno é devido a um átomo de Carbono que ficou com a ligação pendente. Realizamos cálculos para determinar que propriedades magnéticas da folha de grafeno com a monovacância combinada com a adsorção de átomos de Hidrogênio, Oxigênio e Nitrogênio. Realizamos tal estudo porque estas espécies são as que existem em maior quantidade na atmosfera terrestre. Os resultados deste estudo nos mostrou que o Oxigênio elimina o magnetismo no grafeno com monovacância. O Nitrogênio elimina o magnetismo na folha de grafeno, mas apresenta um momento magnético em si. Por último, temos que o Hidrogênio adsorvido no grafeno com a monovacância apresenta um momento magnético em vários átomos ao redor do Carbono que faz a ligação com o Hidrogênio, quando efetuamos cálculos de supercélula fixa. Ao realizar cálculos de supercélula variável, notamos que os momentos magnéticos na folha de grafeno é anulado. Para efetuar os cálculos ab initio usados neste trabalho, usamos o pacote computacional SIESTA, que trabalha usando o formalismo da Teoria do Funcional da Densidade. A aproximação usada para o potencial de correlação e troca foi o GGA de Perdew-Burke-Ernzerhof.
148

A fórmula de aproximação de Baouendi -Treves

Liboni Filho, Paulo Antonio 06 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:28:23Z (GMT). No. of bitstreams: 1 2296.pdf: 862125 bytes, checksum: acddeef1ad5ef9619a315b60abcd7c81 (MD5) Previous issue date: 2009-03-06 / Universidade Federal de Minas Gerais / Let be a N-dimensional smooth manifold. Consider a locally integrable structure L of CT with fiber dimension 1 &#8804; n < N and set m = N &#8722; n. We say that L is locally integrable if, for every p &#8712; , there is a neiborhood Up and m smooth functions Zj : U &#8722;&#8594; C, 1 &#8804; j &#8804; m such that 1. Zj is anihilated by every local section of L; 2. dZ1(p) &#8743; . . . &#8743; dZm(p) 6= 0. The main result in this text is the Baouendi-Treves Approximation Theorem, that states that every distribution solution u of the sections of L is locally the limit of a sequence of smooth solutions of the form Pk &#9702; Z, where Z = (Z1, . . . ,Zm) and Pk is a m-variable polynomial. / Seja uma variedade diferenciável de dimensão N. Consideremos uma estrutura localmente integrável L de CT com fibra de dimensão 1 &#8804; n < N e escrevamos m = N &#8722; n. Dizemos que L é localmente integr´avel se, para todo ponto p &#8712; , existe uma vizinhança Up no qual estão definidas m funções suaves Zj : U &#8722;&#8594; C, 1 &#8804; j &#8804; m que satisfazem 1. Zj é anulado por toda seção suave de L; 2. dZ1(p) &#8743; . . . &#8743; dZm(p) 6= 0. O principal resultado deste texto é o Teorema de Aproximação de Baouendi-Treves, que estabelece que qualquer distribuição u que seja solução das seções de L pode expressar-se localmente como limite de uma sequência de soluções suaves da forma Pk &#9702; Z, onde Z = (Z1, . . . ,Zm) e Pk é um polinômio em m-variáveis.
149

Conectividade do grafo aleatório de Erdös-Rényi e uma variante com conexões locais

Bedia, Elizbeth Chipa 24 March 2016 (has links)
Submitted by Regina Correa (rehecorrea@gmail.com) on 2016-09-26T13:07:54Z No. of bitstreams: 1 DissECB.pdf: 1690258 bytes, checksum: 170a56b764c244b7ea84776c96378020 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-27T19:24:19Z (GMT) No. of bitstreams: 1 DissECB.pdf: 1690258 bytes, checksum: 170a56b764c244b7ea84776c96378020 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-27T19:24:24Z (GMT) No. of bitstreams: 1 DissECB.pdf: 1690258 bytes, checksum: 170a56b764c244b7ea84776c96378020 (MD5) / Made available in DSpace on 2016-09-27T19:24:30Z (GMT). No. of bitstreams: 1 DissECB.pdf: 1690258 bytes, checksum: 170a56b764c244b7ea84776c96378020 (MD5) Previous issue date: 2016-03-24 / Não recebi financiamento / We say that a graph is connected if there is a path edges between any pair of vertices. Random graph Erd os-R enyi with n vertices is obtained by connecting each pair of vertex with probability pn 2 (0; 1) independently of the others. In this work, we studied in detail the connectivity threshold in the connection probability pn for random graphs Erd os-R enyi when the number of vertices n diverges. For this study, we review some basic probabilistic tools (convergence of random variables and methods of the rst and second moment), which will lead to a better understanding of more complex results. In addition, we apply the above concepts for a model with a simple topology, speci cally studied the asymptotic behavior of the probability of non-existence of isolated vertices, and we discussed the connectivity or not of the graph. Finally we show the convergence in distribution of the number of isolated vertices for a Poisson distribution of the studied model. / Dizemos que um grafo e conectado se existe um caminho de arestas entre quaisquer par de vértices. O grafo aleatório de Erd os-R enyi com n vértices e obtido conectando cada par de vértice com probabilidade pn 2 (0; 1), independentemente dos outros. Neste trabalho, estudamos em detalhe o limiar da conectividade na probabilidade de conexão pn para grafos aleat órios Erd os-R enyi quando o n úmero de vértices n diverge. Para este estudo, revisamos algumas ferramentas probabilísticas básicas (convergência de variáveis aleatórias e Métodos do primeiro e segundo momento), que também irão auxiliar ao melhor entendimento de resultados mais complexos. Além disto, aplicamos os conceitos anteriores para um modelo com uma topologia simples, mais especificamente estudamos o comportamento assintótico da probabilidade de não existência de vértices isolados, e discutimos a conectividade ou não do grafo. Por mostramos a convergência em distribuição do número de vértices isolados para uma Distribuição Poisson do modelo estudado.
150

Dois ensaios sobre precificação de ativos

Marconi, Tamyris 15 April 2016 (has links)
Submitted by Bruna Rodrigues (bruna92rodrigues@yahoo.com.br) on 2016-09-28T12:43:44Z No. of bitstreams: 1 DissTM.pdf: 842829 bytes, checksum: 853077899d252d353370dd8f9b86616d (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-10T19:04:27Z (GMT) No. of bitstreams: 1 DissTM.pdf: 842829 bytes, checksum: 853077899d252d353370dd8f9b86616d (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-10T19:04:35Z (GMT) No. of bitstreams: 1 DissTM.pdf: 842829 bytes, checksum: 853077899d252d353370dd8f9b86616d (MD5) / Made available in DSpace on 2016-10-10T19:04:42Z (GMT). No. of bitstreams: 1 DissTM.pdf: 842829 bytes, checksum: 853077899d252d353370dd8f9b86616d (MD5) Previous issue date: 2016-04-15 / Não recebi financiamento / Find fair (according to some criterion) prices for assets in financial markets is one of the most important pillars of Finance Theory. To accomplish this, the Asset Pricing Theory has a mathematical formulation, based mainly on Probability Theory. In this dissertation we present such theory, which is essentially based on mar- tingales, important objects of Probability Theory. Alternatively, we also present an Asset Pricing Theory based on the Coherence Theory of Bruno de Finetti in order to compare, informally, such approaches. / Encontrar preços justos (segundo algum critério) para ativos em mercados financeiros é um dos pilares mais importantes da Teoria de Finanças. Para alcançar esse objetivo, a Teoria de Precificação de Ativos tem uma formulação matemática, fundamentada principalmente na Teoria de Probabilidades. Neste trabalho apresentaremos tal teoria, que é essencialmente baseada em martingales, objetos de grande importância na Teoria de Probabilidades. Alternativamente, apresentaremos uma Teoria de Precificação baseada na Teoria da Coerência de Bruno de Finetti com o objetivo de comparar, de modo informal, tais teorias.

Page generated in 0.0236 seconds