• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 881
  • 40
  • 38
  • 37
  • 36
  • 33
  • 27
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 919
  • 397
  • 391
  • 391
  • 375
  • 187
  • 172
  • 164
  • 151
  • 123
  • 112
  • 110
  • 108
  • 84
  • 81
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Modelos lineares generalizados bayesianos para dados longitudinais /

Monfardini, Frederico. January 2016 (has links)
Orientador: Aparecida Doniseti Pires de Souza / Banca: Fernando Moala / Banca: Thais Cristina Oliveira da Fonseca / Resumo: Os Modelos Lineares Generalizados (GLM) foram introduzidos no início dos anos 70, tendo um grande impacto no desenvolvimento da teoria estatística. Do ponto de vista teórico, esta classe de modelos representa uma abordagem unificada de muitos modelos estatísticos, correntemente usados nas aplicações, podendo-se utilizar dos mesmos procedimentos de inferência. Com o avanço computacional das últimas décadas foi notável o desenvolvimento de extensões nesta classe de modelos e de métodos para os procedimentos de inferência. No contexto da abordagem Bayesiana, até a década de 80 utilizava-se de métodos aproximados de inferência, tais como aproximação de Laplace, quadratura Gaussiana e outros. No início da década de 90, foram popularizados os métodos de Monte Carlo via Cadeias de Markov (Monte Carlo Markov Chain - MCMC) que revolucionaram as aplicações no contexto Bayesiano. Apesar de serem métodos altamente eficientes, a convergência do algoritmo em modelos complexos pode ser extremamente lenta, o que gera alto custo computacional. Em 2009 surgiu o método de Aproximações de Laplace Aninhadas Integradas (Integrated Nested Laplace Aproximation - INLA) que busca eficiência tanto no custo computacional como na precisão das estimativas. Considerando a importância desta classe de modelos, neste trabalho propõem-se explorar extensões dos MLG para dados longitudinais e recentes propostas apresentadas na literatura para os procedimentos de inferência. Mais especificamente, explorar modelos... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Generalized Linear Models (GLM) were introduced in the early 70s, having a great impact on the development of statistical theory. From a theoretical point of view, this class of model is a unified approach to many statistical models commonly used in applications and can be used with the same inference procedures. With advances in the computer over subsequent decades has come a remarkable development of extensions in this class of design and method for inference procedures. In the context of Bayesian approach, until the 80s, it was used to approximate inference methods, such as approximation of Laplace, Gaussian quadrature, etc., The Monte Carlo Markov Chain methods (MCMC) were popularized in the early 90s and have revolutionized applications in a Bayesian context. Although they are highly efficient methods, the convergence of the algorithm in complex models can be extremely slow, which causes high computational cost. The Integrated Nested Laplace Approximations method (INLA), seeking efficiency in both computational cost and accuracy of estimates, appeared in 2009. This work proposes to explore extensions of GLM for longitudinal data considering the importance of this class of model, and recent proposals in the literature for inference procedures. More specifically, it explores models for binary data (binomial) and count data (Poisson), considering the presence of extra variability, including overdispersion and the presence of random effects through hierarchical models and hi... (Complete abstract click electronic access below) / Mestre
52

Modelagem Bayesiana dos níveis máximos do Índice de Preços ao Consumidor

PORTES, Pablo Cescon 10 February 2017 (has links)
O Índice de Preços ao Consumidor Amplo (IPCA) é o índice utilizado pelo Banco Central do Brasil ao estabelecer suas metas inflacionárias. Por servir como uma referência de inflação, o IPCA é atentamente monitorado, tanto por investidores estrangeiros e brasileiros, quanto por gestores públicos. Sabe-se que uma inflação alta e descontrolada causa distorções e perdas econômicas no país, assim há um interesse por parte de administradores e gestores financeiros em prever a inflação máxima para um determinado período de tempo. Dessa forma, o objetivo do trabalho foi modelar os níveis máximos de IPCA, que podem ocorrer em um quadrimestre. A escolha de quadrimestres visa equiparar a análise com os intervalos entre as apresentações dos demonstrativos de cumprimento das metas fiscais por parte do Poder Executivo. Foi utilizada a distribuição Generalizada de Valores Extremos (do inglês Generalized Extreme Values - GEV) para modelagem. Para a estimação dos parâmetros da distribuição GEV utilizou-se o método da Máxima Verossimilhança e a Inferência Bayesiana. Na elicitação de informação para construção das distribuições a priori, foram utilizados dados de países economicamente semelhantes ao Brasil, a Rússia, China e Índia, os quais pertencem ao BRICS. Além disso, foram criadas diferentes combinações de distribuição a priori, usando informações desses países com diferentes estruturas de variância. Para avaliar qual melhor metodologia de estimação foram analisadas a acurácia e precisão das estimativas dos níveis máximos de inflação para determinados tempos de retorno. Os resultados permitiram observar que a abordagem Bayesiana, que utilizou como informação a média de dados dos países do BRICS para construção da distribuição a priori Normal Trivariada, levou a predições mais precisas e acuradas. / The Brazilian Consumer Price Index (CPI) is the index used by the Central Bank of Brazil in establishing its inflation targets. By serving as an inflation reference, the Brazilian CPI is closely monitored by foreign and Brazilian investors as well as by public managers. It is known that high and uncontrolled inflation causes distortions and economic losses in the country, so there is an interest on the part of managers and financial managers to predict maximum inflation for a certain period of time. Thus, the objective of the work was to model the maximum Brazilian CPI levels, which can occur in a four-month period. The choice of four-month periods aims to equate the analysis with the intervals between the presentations of the statements of compliance with the fiscal targets by the government. The Generalized Extreme Values (GEV) distribution was used for modeling. For the estimation of the parameters of the GEV distribution the maximum likelihood method and the Bayesian Inference were used. In the elicitation of information for the construction of the prior distributions, we used data from countries economically similar to Brazil: Russia, China and India, which belong to BRICS. In addition, different combinations of prior distribution were created, using information from these countries with different variance structures. In order to evaluate the best estimation methodology, the accuracy and precision of the estimates of the maximum inflation levels for certain return times were analyzed. The results showed that the Bayesian approach, which used as information the mean data of the BRICS countries for construction of the Normal Trivariate prior distribution, led to more accurate and accurate predictions. / Fundação de Amparo à Pesquisa do Estado de Minas Gerais - FAPEMIG
53

Conectividade do grafo aleatório de Erdös-Rényi e uma variante com conexões locais

Bedia, Elizbeth Chipa 24 March 2016 (has links)
Submitted by Regina Correa (rehecorrea@gmail.com) on 2016-09-26T13:07:54Z No. of bitstreams: 1 DissECB.pdf: 1690258 bytes, checksum: 170a56b764c244b7ea84776c96378020 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-27T19:24:19Z (GMT) No. of bitstreams: 1 DissECB.pdf: 1690258 bytes, checksum: 170a56b764c244b7ea84776c96378020 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-27T19:24:24Z (GMT) No. of bitstreams: 1 DissECB.pdf: 1690258 bytes, checksum: 170a56b764c244b7ea84776c96378020 (MD5) / Made available in DSpace on 2016-09-27T19:24:30Z (GMT). No. of bitstreams: 1 DissECB.pdf: 1690258 bytes, checksum: 170a56b764c244b7ea84776c96378020 (MD5) Previous issue date: 2016-03-24 / Não recebi financiamento / We say that a graph is connected if there is a path edges between any pair of vertices. Random graph Erd os-R enyi with n vertices is obtained by connecting each pair of vertex with probability pn 2 (0; 1) independently of the others. In this work, we studied in detail the connectivity threshold in the connection probability pn for random graphs Erd os-R enyi when the number of vertices n diverges. For this study, we review some basic probabilistic tools (convergence of random variables and methods of the rst and second moment), which will lead to a better understanding of more complex results. In addition, we apply the above concepts for a model with a simple topology, speci cally studied the asymptotic behavior of the probability of non-existence of isolated vertices, and we discussed the connectivity or not of the graph. Finally we show the convergence in distribution of the number of isolated vertices for a Poisson distribution of the studied model. / Dizemos que um grafo e conectado se existe um caminho de arestas entre quaisquer par de vértices. O grafo aleatório de Erd os-R enyi com n vértices e obtido conectando cada par de vértice com probabilidade pn 2 (0; 1), independentemente dos outros. Neste trabalho, estudamos em detalhe o limiar da conectividade na probabilidade de conexão pn para grafos aleat órios Erd os-R enyi quando o n úmero de vértices n diverge. Para este estudo, revisamos algumas ferramentas probabilísticas básicas (convergência de variáveis aleatórias e Métodos do primeiro e segundo momento), que também irão auxiliar ao melhor entendimento de resultados mais complexos. Além disto, aplicamos os conceitos anteriores para um modelo com uma topologia simples, mais especificamente estudamos o comportamento assintótico da probabilidade de não existência de vértices isolados, e discutimos a conectividade ou não do grafo. Por mostramos a convergência em distribuição do número de vértices isolados para uma Distribuição Poisson do modelo estudado.
54

Estatística em um curso de administração de empresas: mobilização dos conceitos estatísticos de base

Bifi, Carlos Ricardo 22 May 2006 (has links)
Made available in DSpace on 2016-04-27T16:57:42Z (GMT). No. of bitstreams: 1 dissertacao_carlos_bifi.pdf: 494393 bytes, checksum: 8d9fb8628cb7d93854780699dee9a8f6 (MD5) Previous issue date: 2006-05-22 / Statistics has detach itself lately because it is useful in all knowledge areas Researches and studies about this subject show the necessity to deepen the knowledge about difficulties in learning teaching process including didactic aspects of this subject and mistakes made by students after this learning Our main question is to study if Administration Students learning statistics are ready to use in a competent way these notions to solve practical problems in their performance area In this research we intend to verify the mobilization knowledge level by students in college according to studies made by A Robert (1998) where he researched four analysis dimensions to teach on math The dimension number four that is our study goal studies the levels of mobilization knowledge from students We will try to diagnose in what knowledge level are students college in statistics studies reffering to tecnique mobilizável and available concepts Using activities extracted from problem situations in Administration Area and statistics knowledge can students make inter relations between the students subjects and the practical problems of their professional area / A Estatística tem se destacado ultimamente por sua utilidade em praticamente todas as áreas do conhecimento Pesquisas e dissertações existentes sobre o assunto sugerem a necessidade de aprofundar os conhecimentos sobre as dificuldades no processo de ensino e aprendizagem dessa disciplina incluindo-se os aspectos didáticos do tema e os erros que os alunos geralmente cometem após a aprendizagem Nossa questão principal é investigar se os alunos egressos do componente curricular Estatística do curso de Administração estão capacitados a utilizar e ou mobilizar de forma eficaz as noções estatísticas de base variabilidade para resolver problemas práticos dentro da sua área de atuação Dessa forma nessa pesquisa pretendemos verificar o nível de mobilização dos conhecimentos por parte dos alunos do Ensino Superior segundo os termos de A Robert (1998) que realizou um estudo sobre quatro dimensões de análise dos conteúdos a ensinar no campo da Matemática A Quarta dimensão que é alvo do nosso trabalho trata dos níveis de ajustes em funcionamento dos conhecimentos pelos alunos Tentaremos diagnosticar qual o nível de conhecimento em que o aluno do Ensino Superior se encontra no conteúdo curricular Estatística quanto a Técnico Mobilizável e Disponível Mediante atividades extraídas de situações-problema da realidade do profissional da área de administração e que exigem conhecimentos de Estatística pode o aluno fazer a inter-relação entre os conteúdos que estudou e a resolução de problemas práticos da área profissional
55

PadrÃes estatÃsticos do movimento ocular na busca visual.

Heitor Fernandes Credidio 28 February 2012 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico / Desde o trabalho pioneiro de Javal em 1879 sobre a leitura (E. Javal, 2010), o movimento ocular tem sido objeto de intensa pesquisa como uma forma de elucidar os mecanismos internos de processos cognitivos que estÃo intimamente relacionados com a visÃo (A. L. Yarbus, 1967). Entre outras, uma tarefa cognitiva que à muito importante para nossa vida cotidiana à a de buscas visuais por objetos escondidos. Na presente dissertaÃÃo, nÃs investigamos atravÃs de experimentos de rastreamento ocular, as propriedades estatÃsticas associadas à busca por alvos escondidos em imagens em meio a diversos distratores. Nossos resultados mostram que o processo dual de movimento ocular, composto por sequÃncias de saltos pequenos (fixaÃÃes) intercalados com saltos grandes menos frequentes (sacadas), apresenta assinaturas estatÃsticas caracterÃsticas. Mais precisamente, enquanto os saltos sacÃdicos seguem uma distribuiÃÃo log-normal de distÃncias, que à tÃpica de processos multiplicativos, os comprimentos $r$ dos saltos menores das trajetÃrias de fixaÃÃo sÃo consistentes com uma distribuiÃÃo em lei de potÃncia, $P(r)sim r^{-alpha}$, onde $alphaapprox 3.1$. Nossos achados corroboram elementos de complexidade anteriormente observados para buscas visuais como uma tarefa Cognitiva.
56

Simulação numérica

Girardi, Daniel 25 October 2012 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas, Programa de Pós-Graduação em Física, Florianópolis, 2010 / Made available in DSpace on 2012-10-25T07:54:05Z (GMT). No. of bitstreams: 1 280990.pdf: 817288 bytes, checksum: 3c0effd17ff68abbd475ccbedd5a9ae4 (MD5) / Este trabalho divide-se em duas partes. Na primeira, nós calculamos o expoente dinâmico do algoritmo de Niedermayer aplicado aos modelos de Ising e XY em duas dimensões, para vários valores do parâmetro $E_0$ (o qual, resumidamente, controla o tamanho médio das ilhas a serem modificadas). Para $E_0=-1$ nós reobtemos o algoritmo de Metropolis e para $E_0=1$ reobtemos o algoritmo de Wolff. Para $-1<E_0<1$, nós mostramos que o tamanho médio das ilhas inicialmente cresce com o tamanho linear do sistema, $L$, mas eventualmente satura em um determinado tamanho $\tilde{L}$, que depende de $E_0$. Para $L>\tilde{L}$ o algoritmo de Niedermayer se comporta como o algoritmo de Metropolis, isto é, tem o mesmo expoente dinâmico. Para $E_0>1$, os tempos de auto-correlação são sempre maiores que para $E_0=1$ (Wolff) e, mais importante, sempre crescem mais rápido que uma lei de potência de $L$. Portanto, mostramos que a melhor escolha do parâmetro $E_0$ é o que retoma o algoritmo de Wolff. Nós também obtemos o comportamento dinâmico do algoritmo de Wolff; apesar de não conclusivo, propusemos uma lei de escala para o tempo de auto-correlação. Na segunda parte nós estudamos o modelo de Potts numa rede retangular com modulações aperiódicas nas interações ao longo de uma direção. Os resultados numéricos foram obtidos utilizando o algoritmo de Wolff para diferentes tamanhos de redes, permitindo que o método de escala de tamanho finito fosse utilizado. Foram utilizadas 3 sequências aperiódicas autoduais, as quais permitem resultados mais precisos, uma vez que a temperatura crítica pode ser conhecida exatamente. Nós analisamos 3 modelos, com seis, oito e quinze estados, todos com transições de primeira ordem no sistema uniforme. Mostramos que o critério de Harris-Luck, originalmente introduzido para o estudo de transições contínuas, é obedecido também para transições de primeira ordem. Nossos resultados indicam que a nova classe de universalidade é dependente do número de estados do modelo de Potts. Como esperado, observamos uma dependência log-periódica da magnetização e da susceptibilidade com o tamanho do sistema finito.
57

Estudo de filmes magnéticos nanoestruturados produzidos com ferrofluidos

Salvador, Daniel January 2011 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas. Programa de Pós-Graduação em Física / Made available in DSpace on 2012-10-25T18:53:12Z (GMT). No. of bitstreams: 1 295969.pdf: 1516842 bytes, checksum: d6455002ebf9d5ca9a1d2e87f14da09b (MD5) / Apresentamos nesta dissertação a produção e caracterização de filmes automontados utilizando ferrofluidos (FFs) surfactados (catiônicos e aniônicos). FFs são uma classe muito interessante de materiais, pois apresentam tanto características magnéticas quanto fluidas. Por esse motivo apresentam grande interesse tecnológico, podem ser manipulados com o uso de campos magnéticos sem contato mecânico. Filmes automontados foram produzidos pela técnica de LBL utilizando-se o policátion poli(alilamina hidroclorada) (PAH) com um FF aniônico e o poliânion poli(vinil sulfonato, sais de sódio) (PVS) com um FF catiônico. As amostras foram produzidas variando-se o tempo de imersão, o pH das soluções poliméricas e o número de bicamadas. O crescimento dos filmes foi caracterizado por espectroscopia UV-Vis e a morfologia e espessura por medidas de AFM. Em algumas amostras fizemos ainda caracterização com um magnetômetro de amostra vibrante (VSM), a fim de verificar a dependência da resposta magnética ao pH utilizado na sua produção. Nós investigamos a dependência do crescimento dos filmes com os parâmetros de produção, onde fizemos uso de teoria de leis de escala com o objetivo de correlacionar o regime de crescimento dos filmes LBL com o FF utilizando. A partir deste trabalho foi possível estabelecer os parâmetros mais adequados para obtenção de filmes nanoestruturados de FFs bastante homogêneos, com espessura e rugosidade controladas. A partir das leis de escala obtivemos uma caracterização completa dos padrões de crescimento dos filmes. Portanto, este trabalho contribui para o estabelecimento desta técnica como ferramenta promissora na obtenção de filmes finos magnéticos controlados
58

Otimização da produção de poços de petróleo com injeção contínua de gás e alinhamento poço-separador

Codas, Andrés 26 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas / Made available in DSpace on 2012-10-26T01:38:33Z (GMT). No. of bitstreams: 1 301173.pdf: 561944 bytes, checksum: 89164bd27810ec50dbd55e245691374b (MD5) / The lift-gas allocation problem with well-separator routing constraints is a mixed-integer nonlinear program of considerable complexity. To this end, a mixed-integer linear formulation (compact) is obtained by piecewise-linearizing the nonlinear curves, using binary variables to express the linearization and routing decisions. A new formulation (integrated) combining the decisions on linearization and routing is developed by using a single type of binary variable. The structures of both formulations are explored to generate lifted cover cuts. Numerical tests show that the use of cutting planes in a cut-and-branch scheme accelerates the resolution time. The solution of the integrated formulation using cutting-plane generation is faster in spite of having more variables than the compact formulation
59

Utilização de observador de estado em substituição a medidor de vazão

Barañano, Audrei Giménez January 2006 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Química / Made available in DSpace on 2012-10-22T22:56:47Z (GMT). No. of bitstreams: 1 229614.pdf: 1314542 bytes, checksum: 0d7589fe60f5e588a50b5920d9480def (MD5) / O objetivo deste trabalho é estimar, indiretamente, a vazão de escoamento em tubulações, tanto em estado estacionário quanto em transientes, que são comuns em processos de fluxo de fluidos em tubulações. A idéia é utilizar medidas de pressão nos extremos do duto, que sempre são disponíveis e mais confiáveis que as medidas de vazão, e utilizar informação das válvulas localizadas nos extremos como medidores de vazão baseados em pressão diferencial de orifício variável. Isso pode ser feito a partir da informação de abertura das válvulas. Desta forma, é possível quantificar a vazão com o conhecimento prévio da abertura da válvula e a pressão lida à sua jusante ou montante, através do uso da equação do orifício. Foi utilizada uma formulação não-linear e uma linearizada para o escoamento dinâmico de um fluido compressível, em espaço de estados. O modelo não-linear para este tipo de problema é composto de um conjunto de equações diferenciais parciais hiperbólicas, e a forma de resolução adotada é a discretização por diferenças finitas centrais. Os contornos do problema abordado são duas válvulas de controle nos extremos da tubulação. As equações que descrevem o movimento dessas válvulas são linearizadas e acopladas ao modelo dinâmico, de forma que elas são utilizadas como medidores de orifício variável para fins de medição de vazão. O modelo não-linear é resolvido nas condições de escoamento experimentais para sua validação. Esse modelo também é linearizado e acoplado a uma matriz de ganho (formando o observador de estado) e assim corrige as diferenças entre a simulação do modelo linearizado e as medições experimentais.
60

O efeito de sobre-reação a curto prazo

Wakigawa, Kiyoshi Diego Costa January 2008 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Sócio-Econômico. Programa de Pós-Graduação em Administração. / Made available in DSpace on 2012-10-23T21:13:09Z (GMT). No. of bitstreams: 1 256340.pdf: 582681 bytes, checksum: f4b5bf0551c61cd86502533b1407390b (MD5) / Este trabalho avalia a hipótese de sobre-reação a curto prazo (semanal) no mercado acionário brasileiro. Esta hipótese foi inicialmente proposta por DeBondt e Thaler (1985) que, a partir de estudos sobre o comportamento humano, afirmaram que o indivíduo tende a sobre-valorizar informações recentes em detrimento das informações anteriores, levando-o a um erro na avaliação do peso correto da nova informação aos preços. Segundo os autores, esta tendência gera um efeito no mercado conhecido como sobre-reação caracterizada por: movimentos extremos dos preços em uma direção são acompanhados por movimentos na direção oposta. Na presente investigação, a verificação empírica deste efeito é feita através da análise do desempenho de uma versão ampliada das estratégias de filtro, baseadas em informações de retorno e volume passados, utilizadas por Cooper (1999). A amostra é composta por 151 ativos pertencentes à Bovespa no período de 04/01/1995 a 17/07/2007. É utilizada a metodologia bootstrap desenvolvida por Brock et al. (1992), que torna possível avaliar, além da significância do desempenho das estratégias, se um modelo de precificação é capaz de explicar o retorno encontrado nas estratégias. São avaliados dois modelos: o Random Walk com constante, que é compatível com a hipótese de eficiência de mercado, e um modelo que inclui um componente auto-regressivo de primeira ordem AR(1). Os resultados apresentam evidências da hipótese de sobre-reação a curto prazo, sendo o desempenho persistente aos custos transacionais envolvidos e não explicado pelo modelo Random Walk e nem pela existência de correlação serial negativa nas séries de retorno.

Page generated in 0.0671 seconds