• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 209
  • 197
  • 31
  • 18
  • 12
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 559
  • 559
  • 214
  • 196
  • 107
  • 102
  • 73
  • 67
  • 67
  • 67
  • 66
  • 57
  • 54
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Modelagem de dados de eventos recorrentes via processo de Poisson com termo de fragilidade. / Modelling Recurrent Event Data Via Poisson Process With a Frailty Term.

Tomazella, Vera Lucia Damasceno 28 July 2003 (has links)
Nesta tese é analisado situações onde eventos de interesse podem ocorrer mais que uma vez para o mesmo indivíduo. Embora os estudos nessa área tenham recebido considerável atenção nos últimos anos, as técnicas que podem ser aplicadas a esses casos especiais ainda são pouco exploradas. Além disso, em problemas desse tipo, é razoável supor que existe dependência entre as observações. Uma das formas de incorporá-la é introduzir um efeito aleatório na modelagem da função de risco, dando origem aos modelos de fragilidade. Esses modelos, em análise de sobrevivência, visam descrever a heterogeneidade não observada entre as unidades em estudo. Os modelos estatísticos apresentados neste texto são fundamentalmente modelos de sobrevivência baseados em processos de contagem, onde é representado o problema como um processo de Poisson homogêneo e não-homogêneo com um termo de fragilidade, para o qual um indivíduo com um dado vetor de covariável x é acometido pela ocorrência de eventos repetidos. Esses modelos estão divididos em duas classes: modelos de fragilidade multiplicativos e aditivos; ambos visam responder às diferentes formas de avaliar a influência da heterogeneidade entre as unidades na função de intensidade dos processos de contagem. Até agora, a maioria dos estudos tem usado a distribuição gama para o termo de fragilidade, a qual é matematicamente conveniente. Este trabalho mostra que a distribuição gaussiana inversa tem propriedade igualmente simples à distribuição gama. Consequências das diferentes distribuições são examinadas, visando mostrar que a escolha da distribuição de fragilidade é importante. O objetivo deste trabalho é propor alguns métodos estatísticos para a análise de eventos recorrentes e verificar o efeito da introdução do termo aleatório no modelo por meio do estudo do custo, da estimação dos outros parâmetros de interesse. Também um estudo de simulação bootstrap é apresentado para fazer inferências dos parâmetros de interesse. Além disso, uma abordagem Bayesiana é proposta para os modelos de fragilidade multiplicativos e aditivos. Métodos de simulações são utilizados para avaliar as quantidades de interesse a posteriori. Por fim para ilustrar a metodologia, considera-se um conjunto de dados reais sobre um estudo dos resultados experimentais de animais cancerígenos. / In this thesis we analyse situations where events of interest may occur more than once for the same individual and it is reasonable to assume that there is dependency among the observations. A way of incorporating this dependency is to introduce a random effect in the modelling include a frailty term in the intensity function. The statistical methods presented here are intensity models based, where we represent the problem as a homogeneous and nonhomogeneous Poisson process with a frailty term for which an individual with given fixed covariate vector x has reccurent events occuring. These models are divided into two classes: multiplicative and additive models, aiming to answer the different ways of assessing the influence of heterogeneity among individuals in the intensity function of the couting processes. Until now most of the studies have used a frailty gamma distribution, due to mathematical convenience. In this work however we show that a frailty gaussian inverse distribution has equally simple proprieties when compared to a frailty gamma distribution. Methods for regression analysis are presented where we verify the effect of the frailty term in the model through of the study of the cost of estimating the other parameters of interest. We also use the simulation bootstrap method to make inference on the parameters of interest. Besides we develop a Bayesian approach for the homogeneous and nonhomogeneous Poisson process with multiplicative and additive frailty. Simulation methods are used to assess the posterior quantities of interest. In order to ilustrate our methodology we considere a real data set on results of an experimental animal carcinogenesis study.
262

Adaptação dinâmica de vídeo / Dynamic video adapting

Eisinger, Robson 21 June 2007 (has links)
O presente trabalho apresenta o resultado de um estudo comparando o uso de técnicas de aprendizado de máquina na adaptação dinâmica de vídeo. O sistema utiliza informações de contexto, como as características de um dispositivo, preferências do usuário e condições de rede, como entrada de um mecanismo de decisão responsável por encontrar parâmetros de codificação mais adequados ao contexto à geração de um novo fluxo de vídeo dinamicamente personalizado / This work presents the results of a comparative study about machine learning techniques used in dynamic video adaptation. The system uses contextual information, such as devices? characteristics, user?s preferences and network condition as an input for a decision engine, responsible to find the best encoding parameters to be used during the generation of a new dynamically personalized video stream
263

Modelagem estatística em estudos de bioequivalência sob o enfoque Bayesiano / Statistical modeling in bioequivalence studies under Bayesian approach.

Roberto Molina de Souza 15 April 2015 (has links)
O interesse pelos estudos de bioequivalência iniciou-se na década de 60, sendo o FDA (EUA) a primeira agência reguladora a se interessar por esta questão. No Brasil, uma lei de 1999 regulamentou o medicamento genérico no país, sendo este um importante meio de acesso aos medicamentos pela população e fazendo parte da política de medicamentos do SUS. No Brasil, a ANVISA e responsável por inspecionar os centros de bioequivalência bem como dar as diretrizes para estes. Um modelo paramétrico padrão para a etapa estatística e disponibilizado para a decisão de bioequivalência media e espera-se que este ajuste-se aos dados obtidos nos estudos de bioequivalência, o que nem sempre acontece. Neste sentido, e proposto nesta tese o uso de modelos paramétricos mais abrangentes baseados em outras distribuições de probabilidade para a decisão de bioequivalência media e que possam modelar a assimetria dos dados, dispensando o uso da transformação logarítmica para os parâmetros farmacocinéticos o que afeta a amplitude dos limites de bioequivalência. Propõe-se também o uso de modelos bivariados para a tomada conjunta da decisão de bioequivalência media, quando são analisados simultaneamente dois parâmetros farmacocinéticos. Foram utilizados métodos Bayesianos para a estimação dos parâmetros dado a exibilidade deste enfoque quando combinado ao uso dos métodos MCMC facilitados a partir do uso de softwares livres. Nesta tese e apresentado um estudo do poder empírico dos testes de hipóteses para os modelos univariados propostos bem como são introduzidos quatro exemplos, sendo os três primeiros voltados a aplicação da decisão de bioequivalência media e o quarto para a aplicação da bioequivalência populacional e individual. Nos três primeiros exemplos foram observados ganhos em termos de ajuste dos novos modelos propostos aos dados com relação ao modelo padrão segundo os critérios de seleção de modelos utilizados. O exemplo quatro apresenta uma analise padrão de bioequivalência populacional e individual com o código computacional para a obtenção dos resultados disponível no apêndice A bem como outros códigos para os demais exemplos. Embora a padroniza- ção das análises estatísticas para os estudos de bioequivalência seja importante, não deve-se esperar que um modelo padrão ajuste-se a qualquer conjunto de dados originados destes tipo de estudos. Neste sentido, são apresentados alternativas que podem auxiliar o pesquisador na tomada de uma decisão em termos de bioequivalência media mais segura. / The interest in bioequivalence studies began in the early 1960s especially in the United States of America where the FDA was the rst regulatory agency to show interest upon this issue. In Brazil, this interest started in 1999 the year when a law regulated the generic drugs in the country. The ANVISA is the Brazilian regulatory agency responsible for inspecting the bioequivalence centers and giving guidelines for this issue. In general, a standard parametric model for the statistical step is indicated for the average bioequivalence decision and this model is expected to be tted by the data obtained in the bioequivalence studies. In some cases, this model would not be appropriate. In this way, this thesis proposes the use of more comprehensive parametric models based on other probability distributions for the average bioequivalence decision and that can model asymmetrical data, a common situation in bioequivalence studies. In addition, there is no need of a logarithmic transformation for the pharmacokinetic parameters which could aect the range of the bioequivalence limits. We also propose the use of parametrical bivariate models for the joint decision of the average bioequivalence decision, since these measures are usually analyzed simultaneously with two pharmacokinetic parameters. We use Bayesian methods to estimate the parameters, given the great exibility of this approach when combined with the use of MCMC methods using free available softwares. This thesis also presents a study of the empirical power of hypothesis testing for the proposed univariate models and four examples are introduced. In the examples one, two and three we apply the average bioequivalence decision and in the fourth example we consider for the implementation of population and individual bioequivalence. In the examples one, two and three were observed gains in the tting of the proposed new models for the data where some existing approaches were used in the selection criteria for the proposed models. Example four provides a standard analysis of population and individual bioequivalence with the computer code for obtaining the results available in the Appendix A, as well as other codes. Although the standardization of statistical analysis for bioequivalence studies is important, a standard model is not expected to be well tted to any data set originated by such studies. In this way, we present alternatives that can help researchers in making a decision in terms of average bioequivalence with more security.
264

Modelos bayesianos semi-paramétricos para dados binários / Bayesian semi-parametric models for binary data

Diniz, Márcio Augusto 11 June 2015 (has links)
Este trabalho propõe modelos Bayesiano semi-paramétricos para dados binários. O primeiro modelo é uma mistura em escala que permite lidar com discrepâncias relacionadas a curtose do modelo Logístico. É uma extensão relevante a partir do que já foi proposto por Basu e Mukhopadhyay (2000) ao possibilitar a interpretação da distribuição a priori dos parâmetros através de razões de chances. O segundo modelo usufrui da mistura em escala em conjunto com a transformação proposta por \\Yeo e Johnson (2000) possibilitando que a curtose assim como a assimetria sejam ajustadas e um parâmetro informativo de assimetria seja estimado. Esta transformação é muito mais apropriada para lidar com valores negativos do que a transformação de Box e Cox (1964) utilizada por Guerrero e Johnson (1982) e é mais simples do que o modelo proposto por Stukel (1988). Por fim, o terceiro modelo é o mais geral entre todos e consiste em uma mistura de posição e escala tal que possa descrever curtose, assimetria e também bimodalidade. O modelo proposto por Newton et al. (1996), embora, seja bastante geral, não permite uma interpretação palpável da distribuição a priori para os pesquisadores da área aplicada. A avaliação dos modelos é realizada através de medidas de distância de probabilidade Cramér-von Mises, Kolmogorov-Smirnov e Anderson-Darling e também pelas Ordenadas Preditivas Condicionais. / This work proposes semi-parametric Bayesian models for binary data. The first model is a scale mixture that allows handling discrepancies related to kurtosis of Logistic model. It is a more interesting extension than has been proposed by Basu e Mukhopadyay (1998) because this model allows the interpretation of the prior distribution of parameters using odds ratios. The second model enjoys the scale mixture together with the scale transformation proposed by Yeo and Johnson (2000) modeling the kurtosis and the asymmetry such that a parameter of asymmetry is estimated. This transformation is more appropriate to deal with negative values than the transformation of Box e Cox (1964) used by Guerrero e Johnson (1982) and simpler than the model proposed by Stukel (1988). Finally, the third model is the most general among all and consists of a location-scale mixture that can describe kurtosis and skewness also bimodality. The model proposed by Newton et al (1996), although general, does not allow a tangible interpretation of the a priori distribution for reseachers of applied area. The evaluation of the models is performed through distance measurements of distribution of probabilities Cramer-von Mises Kolmogorov-Smirnov and Anderson-Darling and also the Conditional Predictive sorted.
265

Métodos alternativos de previsão de safras agrícolas / Alternative Crop Prediction Methods

Miquelluti, Daniel Lima 23 January 2015 (has links)
O setor agrícola é, historicamente, um dos pilares da economia brasileira, e apesar de ter sua importância diminuída com o desenvolvimento do setor industrial e de serviços ainda é responsável por dar dinamismo econômico ao país, bem como garantir a segurança alimentar, auxiliar no controle da inflação e na formação de reservas monetárias. Neste contexto as safras agrícolas exercem grande influência no comportamento do setor e equilíbrio no mercado agrícola. Foram desenvolvidas diversas metodologias de previsão de safra, sendo em sua maioria modelos de simulação de crescimento. Entretanto, recentemente os modelos estatísticos vem sendo utilizados mais comumente devido às suas predições mais rápidas em períodos anteriores à colheita. No presente trabalho foram avaliadas duas destas metodologias, os modelos ARIMA e os Modelos Lineares Dinâmicos (MLD), sendo utilizada tanto a inferência clássica quanto a bayesiana. A avaliação das metodologias deu-se por meio da análise das previsões dos modelos, bem como da facilidade de implementação e poder computacional necessário. As metodologias foram aplicadas a dados de produção de soja para o município de Mamborê-PR, no período de 1980 a 2013, sendo área plantada (ha) e precipitação acumulada (mm) variáveis auxiliares nos modelos de regressão dinâmica. Observou-se que o modelo ARIMA (2,1,0) reparametrizado na forma de um MLD e estimado por meio de máxima verossimilhança, gerou melhores previsões do que aquelas obtidas com o modelo ARIMA(2,1,0) não reparametrizado. / The agriculture is, historically, one of Brazil\'s economic pillars, and despite having it\'s importance diminished with the development of the industry and services it still is responsible for giving dynamism to the country inland\'s economy, ensuring food security, controlling inflation and assisting in the formation of monetary reserves. In this context the agricultural crops exercise great influence in the behaviour of the sector and agricultural market balance. Diverse crop forecast methods were developed, most of them being growth simulation models, however, recently the statistical models are being used due to its capability of forecasting early when compared to the other models. In the present thesis two of these methologies were evaluated, ARIMA and Dynamic Linear Models, utilizing both classical and bayesian inference. The forecast accuracy, difficulties in the implementation and computational power were some of the caracteristics utilized to assess model efficiency. The methodologies were applied to Soy production data of Mamborê-PR, in the 1980-2013 period, also noting that planted area (ha) and cumulative precipitation (mm) were auxiliary variables in the dynamic regression. The ARIMA(2,1,0) reparametrized in the DLM form and adjusted through maximum likelihood generated the best forecasts, folowed by the ARIMA(2,1,0) without reparametrization.
266

Regressão binária nas abordagens clássica e Bayesiana / Binary regression in the classical and Bayesian approaches

Fernandes, Amélia Milene Correia 16 December 2016 (has links)
Este trabalho tem como objetivo estudar o modelo de regressão binária nas abordagens clássica e bayesiana utilizando as funções de ligações probito, logito, complemento log-log, transformação box-cox e probito-assimétrico. Na abordagem clássica apresentamos as suposições e o procedimento para ajustar o modelo de regressão e verificamos a precisão dos parâmetros estimados, construindo intervalos de confiança e testes de hipóteses. Enquanto que, na inferência bayesiana fizemos um estudo comparativo utilizando duas metodologias. Na primeira metodologia consideramos densidades a priori não informativas e utilizamos o algoritmo Metropolis-Hastings para ajustar o modelo. Na segunda metodologia utilizamos variáveis auxiliares para obter a distribuição a posteriori conhecida, facilitando a implementação do algoritmo do Amostrador de Gibbs. No entanto, a introdução destas variáveis auxiliares podem gerar valores correlacionados, o que leva à necessidade de se utilizar o agrupamento das quantidades desconhecidas em blocos para reduzir a autocorrelação. Através do estudo de simulação mostramos que na inferência clássica podemos usar os critérios AIC e BIC para escolher o melhor modelo e avaliamos se o percentual de cobertura do intervalo de confiança assintótica está de acordo com o esperado na teoria assintótica. Na inferência bayesiana constatamos que o uso de variáveis auxiliares resulta em um algoritmo mais eficiente segundo os critérios: erro quadrático médio (EQM), erro percentual absoluto médio (MAPE) e erro percentual absoluto médio simétrico (SMAPE). Como ilustração apresentamos duas aplicações com dados reais. Na primeira, consideramos um conjunto de dados da variação do Ibovespa e a variação do valor diário do fechamento da cotação do dólar no período de 2013 a 2016. Na segunda aplicação, trabalhamos com um conjunto de dados educacionais (INEP-2013), focando nos estudos das variáveis que influenciam a aprovação do aluno. / The objective of this work is to study the binary regression model under the frequentist and Bayesian approaches using the probit, logit, log-log complement, Box-Cox transformation and skewprobit as link functions. In the classical approach we presented assumpti- ons and procedures used in the regression modeling. We verified the accuracy of the estimated parameters by building confidence intervals and conducting hypothesis tests. In the Bayesian approach we made a comparative study using two methodologies. For the first methodology, we considered non-informative prior distributions and the Metropolis-Hastings algorithm to estimate the model. In the second methodology we used auxiliary variables to obtain the known a posteriori distribution, allowing the use of the Gibbs Sampler algorithm. However, the introduction of these auxiliary variables can generate correlated values and needs the use of clustering of unknown quantities in blocks to reduce the autocorrelation. In the simulation study we used the AIC and BIC information criteria to select the most appropriate model and we evaluated whether the coverage probabilities of the confidence interval is in agre- ement with that expected by the asymptotic theory. In Bayesian approach we found that the inclusion of auxiliary variables in the model results in a more efficient algoritm according to the MSE, MAPE and SMAPE criteria. In this work we also present applications to two real datasets. The first dataset used is the variation of the Ibovespa and variation of the daily value of the American dollar at the time of closing the 2013 to 2016. The second dataset, used is an educational data set (INEP-2013), where we are interested in studying the factors that influence the approval of the student.
267

Análise Bayesiana de modelos de mistura finita com dados censurados / Bayesian analysis of finite mixture models with censored data

Melo, Brian Alvarez Ribeiro de 21 February 2017 (has links)
Misturas finitas são modelos paramétricos altamente flexíveis, capazes de descrever diferentes características dos dados em vários contextos, especialmente na análise de dados heterogêneos (Marin, 2005). Geralmente, nos modelos de mistura finita, todas as componentes pertencem à mesma família paramétrica e são diferenciadas apenas pelo vetor de parâmetros associado a essas componentes. Neste trabalho, propomos um novo modelo de mistura finita, capaz de acomodar observações censuradas, no qual as componentes são as densidades das distribuições Gama, Lognormal e Weibull (mistura GLW). Essas densidades são reparametrizadas, sendo reescritas em função da média e da variância, uma vez que estas quantidades são mais difundidas em diversas áreas de estudo. Assim, construímos o modelo GLW e desenvolvemos a análise de tal modelo sob a perspectiva bayesiana de inferência. Essa análise inclui a estimação, através de métodos de simulação, dos parâmetros de interesse em cenários com censura e com fração de cura, a construção de testes de hipóteses para avaliar efeitos de covariáveis e pesos da mistura, o cálculo de medidas para comparação de diferentes modelos e estimação da distribuição preditiva de novas observações. Através de um estudo de simulação, avaliamos a capacidade da mistura GLW em recuperar a distribuição original dos tempos de falha utilizando testes de hipóteses e estimativas do modelo. Os modelos desenvolvidos também foram aplicados no estudo do tempo de seguimento de pacientes com insuficiência cardíaca do Instituto do Coração da Faculdade de Medicina da Universidade de São Paulo. Nesta aplicação, os resultados mostram uma melhor adequação dos modelos de mistura em relação à utilização de apenas uma distribuição na modelagem dos tempos de seguimentos. Por fim, desenvolvemos um pacote para o ajuste dos modelos apresentados no software R. / Finite mixtures are highly flexible parametric models capable of describing different data features and are widely considered in many contexts, especially in the analysis of heterogeneous data (Marin, 2005). Generally, in finite mixture models, all the components belong to the same parametric family and are only distinguished by the associated parameter vector. In this thesis, we propose a new finite mixture model, capable of handling censored observations, in which the components are the densities from the Gama, Lognormal and Weibull distributions (the GLW finite mixture). These densities are rewritten in such a way that the mean and the variance are the parameters, since the interpretation of such quantities is widespread in various areas of study. In short, we constructed the GLW model and developed its analysis under the bayesian perspective of inference considering scenarios with censorship and cure rate. This analysis includes the parameter estimation, wich is made through simulation methods, construction of hypothesis testing to evaluate covariate effects and to assess the values of the mixture weights, computatution of model adequability measures, which are used to compare different models and estimation of the predictive distribution for new observations. In a simulation study, we evaluated the feasibility of the GLW mixture to recover the original distribution of failure times using hypothesis testing and some model estimated quantities as criteria for selecting the correct distribution. The models developed were applied in the study of the follow-up time of patients with heart failure from the Heart Institute of the University of Sao Paulo Medical School. In this application, results show a better fit of mixture models, in relation to the use of only one distribution in the modeling of the failure times. Finally, we developed a package for the adjustment of the presented models in software R.
268

Bayesian shrinkage in mixture-of-experts models: identifying robust determinants of class membership

Zens, Gregor 13 February 2019 (has links) (PDF)
A method for implicit variable selection in mixture-of-experts frameworks is proposed. We introduce a prior structure where information is taken from a set of independent covariates. Robust class membership predictors are identified using a normal gamma prior. The resulting model setup is used in a finite mixture of Bernoulli distributions to find homogenous clusters of women in Mozambique based on their information sources on HIV. Fully Bayesian inference is carried out via the implementation of a Gibbs sampler.
269

Modelagem de volatilidade via modelos GARCH com erros assimétricos: abordagem Bayesiana / Volatility modeling through GARCH models with asymetric errors: Bayesian approach

Fioruci, José Augusto 12 June 2012 (has links)
A modelagem da volatilidade desempenha um papel fundamental em Econometria. Nesta dissertação são estudados a generalização dos modelos autorregressivos condicionalmente heterocedásticos conhecidos como GARCH e sua principal generalização multivariada, os modelos DCC-GARCH (Dynamic Condicional Correlation GARCH). Para os erros desses modelos são consideradas distribuições de probabilidade possivelmente assimétricas e leptocúrticas, sendo essas parametrizadas em função da assimetria e do peso nas caudas, necessitando assim de estimar esses parâmetros adicionais aos modelos. A estimação dos parâmetros dos modelos é feita sob a abordagem Bayesiana e devido às complexidades destes modelos, métodos computacionais baseados em simulações de Monte Carlo via Cadeias de Markov (MCMC) são utilizados. Para obter maior eficiência computacional os algoritmos de simulação da distribuição a posteriori dos parâmetros são implementados em linguagem de baixo nível. Por fim, a proposta de modelagem e estimação é exemplificada com dois conjuntos de dados reais / The modeling of volatility plays a fundamental role in Econometrics. In this dissertation are studied the generalization of known autoregressive conditionally heteroscedastic (GARCH) models and its main principal multivariate generalization, the DCCGARCH (Dynamic Conditional Correlation GARCH) models. For the errors of these models are considered distribution of probability possibility asymmetric and leptokurtic, these being parameterized as a function of asymmetry and the weight on the tails, thus requiring estimate the models additional parameters. The estimation of parameters is made under the Bayesian approach and due to the complexities of these models, methods computer-based simulations Monte Carlo Markov Chain (MCMC) are used. For more computational efficiency of simulation algorithms of posterior distribution of the parameters are implemented in low-level language. Finally, the proposed modeling and estimation is illustrated with two real data sets
270

Tópicos em mecânica estatística de sistemas complexos: uma abordagem mecânico-estatística de dois tópicos de interesse em finanças, economia e sociologia / Topics in statistical physics of complex systems: a statistical mechanical approach to two topics of interest in finance, economics and sociology

Rafael Sola de Paula de Angelo Calsaverini 26 April 2013 (has links)
No presente trabalho, exploramos dois temas de interesse em finanças, economia e antropologia social, através da aplicação de técnicas da teoria da informação e da mecânica estatística. No primeiro tópico, estudamos a conexão entre teoria de dependência estatística, teoria de informação e teoria da cópulas. O conceito de distribuição cópula é revisto e aplicado em reformulação das definições de medida de dependência dadas por Rényi 1. Em seguida, mostramos que a informação mútua satisfaz todos os requisitos para ser uma boa medida de dependência. Obtemos uma identidade entre a informação mútua e a entropia da distribuição cópula e uma decomposição mais específica da informação mútua de uma distribuição elíptica nas suas partes linear e não-linear. Avaliamos o risco de usar quantidades ingênuas como medidas de dependência estatística, mostrando que a correlação linear pode subestimar grosseiramente a dependência. Esses resultados são utilizados para desenvolver um método de detectação de desvios de dependência gaussiana em pares de variáveis aleatórias e aplicá-lo a séries temporais financeiras. Finalmente, discutimos um método para ajustar t-cópulas a dados empíricos 2 através da medida da informação mútua e do tau de Kendall. No segundo tópico, desenvolvemos um modelo para o surgimento de autoridade em sociedades humanas pré-agrícolas. Discutimos motivações empíricas com raízes em neurociência, primatologia e antropologia para um modelo matemático capaz de explicar a ampla variabilidade de formas de organização social humana no eixo igualitário hierárquico. O modelo resulta da aplicação de teoria da informação a uma hipótese sobre os custos evolutivos envolvidos na vida social. O modelo gera um diagrama de fase rico, com diferentes regimes que podem ser interpretados como diferentes tipos de organização social. Os parâmetros de controler do modelo estão ligados à capacidade cognitiva da espécie em questão, ao tamanho do grupo e a pressões ecológicas e sociais. / In the present work we explore two topics of interest in finance, economics and social anthropology through the application of techniques from information theory and statistical mechanics. In the first topic we study the connexion between statistical dependency theory, information theory and copula theory. The concept of copula distribution is reviewed and applied to the reformulation of the definition of dependency measures given by Rényi 3. It is then shown that the mutual information satisfy all the requirements to be a good dependency measure. We derive an identity between mutual information and the entropy of the copula distribution and a more specific decomposition of the mutual information of an elliptical distribution into its linear and non-linear parts. We evaluate the risk of using naive measures as statistical dependency measures by showing that linear correlation can grossly underestimate dependency. Those results are used to develop a method to detect deviation from gaussian dependence in pairs of random variables and apply it to financial time series. Finally, we discuss a method to adjust t-copulas to empirical data4 through the determination of the mutual information and Kendalls tau. In the second topic we develop a model for the emergence of authority in pre-agricultural human societies. We discuss empirical motivations with roots in neuroscience, primatology and anthropology for a mathematical model able to explain the ample variability of forms of human social organization in the egalitarian-hierarchical axis. The model results from the application of information theory on a hypothesis about the evolutive costs involved in social life. It generates a rich phase diagram, with different regimes which can be interpreted as different types of societal organization, from egalitarian to hierarchical. The control parameters of the model are connected to the cognitive capacity of the species in question, the size of the group and ecological and social pressures.

Page generated in 0.0817 seconds