501 |
Segmentação de imagens coloridas por árvores bayesianas adaptativasPeixoto, Guilherme Garcia Schu January 2017 (has links)
A segmentação de imagens consiste em urna tarefa de fundamental importância para diferentes aplicações em visão computacional, tais como por exemplo, o reconhecimento e o rastreamento de objetos, a segmentação de tomores/lesões em aplicações médicas, podendo também servir de auxílio em sistemas de reconhecimento facial. Embora exista uma extensa literatora abordando o problema de segmentação de imagens, tal tópico ainda continua em aberto para pesquisa. Particularmente, a tarefa de segmentar imagens coloridas é desafiadora devido as diversas inomogeneidades de cor, texturas e formas presentes nas feições descritivas das imagens. Este trabalho apresenta um novo método de clustering para abordar o problema da segmentação de imagens coloridas. Nós desenvolvemos uma abordagem Bayesiana para procura de máximos de densidade em urna distribuição discreta de dados, e representamos os dados de forma hierárquica originando clusters adaptativos a cada nível da hierarquia. Nós aplicamos o método de clustering proposto no problema de segmentação de imagens coloridas, aproveitando sua estrutura hierárquica, baseada em propriedades de árvores direcionadas, para representar hierarquicamente uma imagem colorida. Os experimentos realizados revelaram que o método de clustering proposto, aplicado ao problema de segmentação de imagens coloridas, obteve para a medida de performance Probabilistic Rand lndex (PRI) o valor de 0.8148 e para a medida Global Consistency Error (GCE) o valor 0.1701, superando um total de vinte e um métodos previamente propostos na literatura para o banco de dados BSD300. Comparações visuais confirmaram a competitividade da nossa abordagem em relação aos demais métodos testados. Estes resultados enfatizam a potencialidade do nosso método de clustering para abordar outras aplicações no domínio de Visão Computacional e Reconhecimento de Padrões. / Image segmentation is an essential task for several computer vision applications, such as object recognition, tracking and image retrieval. Although extensively studied in the literature, the problem of image segmentation remains an open topic of research. Particularly, the task of segmenting color images is challenging due to the inhomogeneities in the color regions encountered in natural scenes, often caused by the shapes of surfaces and their interactions with the illumination sources (e.g. causing shading and highlights) This work presents a novel non-supervised classification method. We develop a Bayesian framework for seeking modes on the underlying discrete distribution of data and we represent data hierarchically originating adaptive clusters at each levei of hierarchy. We apply the prnposal clustering technique for tackling the problem of color irnage segmentation, taking advantage of its hierarchical structure based on hierarchy properties of directed trees for representing fine to coarse leveis of details in an image. The experiments herein conducted revealed that the proposed clustering method applied to the color image segmentation problem, achieved for the Probabilistic Rand Index (PRI) performance measure the value of 0.8148 and for the Global Consistency Error (GCE) the value of 0.1701, outperforming twenty-three methods previously proposed in the literature for the BSD300 dataset. Visual comparison confirmed the competitiveness of our approach towards state-of-art methods publicly available in the literature. These results emphasize the great potential of our proposed clustering technique for tackling other applications in computer vision and pattem recognition.
|
502 |
Epistemic Norms and Permissive RationalityJanuary 2016 (has links)
abstract: This dissertation consists of three essays, each of which closely relates to epistemic norms for rational doxastic states. The central issue is whether epistemic rationality is impermissive or not: For any total evidence E, is there a unique doxastic state that any possible agent with that total evidence E should take (Uniqueness), or not (Permissivism)?
“Conservatism and Uniqueness”: Conservatism is the idea that an agent’s beliefs should be stable as far as possible when she undergoes a learning experience. Uniqueness is the idea that any given body of total evidence uniquely determines what it is rational to believe. Epistemic Impartiality is the idea that you should not give special treatment to your beliefs solely because they are yours. I construe Epistemic Impartiality as a meta-principle governing epistemic norms, and argue that it is compatible with Conservatism. Then I show that if Epistemic Impartiality is correct, Conservatism and Uniqueness go together; each implies the other.
“Cognitive Decision Theory and Permissive Rationality”: In recent epistemology, philosophers have deployed a decision theoretic approach to justify various epistemic norms. A family of such accounts is known as Cognitive Decision Theory. According to Cognitive Decision Theory, rational beliefs are those with maximum expected epistemic value. How does Cognitive Decision Theory relate to the debate over permissive rationality? As one way of addressing this question, I present and assess an argument against Cognitive Decision Theory.
“Steadfastness, Deference, and Permissive Rationality”: Recently, Benjamin Levinstein has offered two interesting arguments concerning epistemic norms and epistemic peer disagreement. In his first argument, Levinstein claims that a tension between Permissivism and steadfast attitudes in the face of epistemic peer disagreement generally leads us to conciliatory attitudes; in his second argument, he argues that, given an ‘extremely weak version of a deference principle,’ Permissivism collapses into Uniqueness. However, in this chapter, I show that both arguments fail. This result supports the following claim: we should treat steadfast attitudes and at least some versions of a deference principle as viable positions in the discussion about several types of Permissivism, because they are compatible with any type of Permissivism. / Dissertation/Thesis / Doctoral Dissertation Philosophy 2016
|
503 |
Segmentação de imagens coloridas por árvores bayesianas adaptativasPeixoto, Guilherme Garcia Schu January 2017 (has links)
A segmentação de imagens consiste em urna tarefa de fundamental importância para diferentes aplicações em visão computacional, tais como por exemplo, o reconhecimento e o rastreamento de objetos, a segmentação de tomores/lesões em aplicações médicas, podendo também servir de auxílio em sistemas de reconhecimento facial. Embora exista uma extensa literatora abordando o problema de segmentação de imagens, tal tópico ainda continua em aberto para pesquisa. Particularmente, a tarefa de segmentar imagens coloridas é desafiadora devido as diversas inomogeneidades de cor, texturas e formas presentes nas feições descritivas das imagens. Este trabalho apresenta um novo método de clustering para abordar o problema da segmentação de imagens coloridas. Nós desenvolvemos uma abordagem Bayesiana para procura de máximos de densidade em urna distribuição discreta de dados, e representamos os dados de forma hierárquica originando clusters adaptativos a cada nível da hierarquia. Nós aplicamos o método de clustering proposto no problema de segmentação de imagens coloridas, aproveitando sua estrutura hierárquica, baseada em propriedades de árvores direcionadas, para representar hierarquicamente uma imagem colorida. Os experimentos realizados revelaram que o método de clustering proposto, aplicado ao problema de segmentação de imagens coloridas, obteve para a medida de performance Probabilistic Rand lndex (PRI) o valor de 0.8148 e para a medida Global Consistency Error (GCE) o valor 0.1701, superando um total de vinte e um métodos previamente propostos na literatura para o banco de dados BSD300. Comparações visuais confirmaram a competitividade da nossa abordagem em relação aos demais métodos testados. Estes resultados enfatizam a potencialidade do nosso método de clustering para abordar outras aplicações no domínio de Visão Computacional e Reconhecimento de Padrões. / Image segmentation is an essential task for several computer vision applications, such as object recognition, tracking and image retrieval. Although extensively studied in the literature, the problem of image segmentation remains an open topic of research. Particularly, the task of segmenting color images is challenging due to the inhomogeneities in the color regions encountered in natural scenes, often caused by the shapes of surfaces and their interactions with the illumination sources (e.g. causing shading and highlights) This work presents a novel non-supervised classification method. We develop a Bayesian framework for seeking modes on the underlying discrete distribution of data and we represent data hierarchically originating adaptive clusters at each levei of hierarchy. We apply the prnposal clustering technique for tackling the problem of color irnage segmentation, taking advantage of its hierarchical structure based on hierarchy properties of directed trees for representing fine to coarse leveis of details in an image. The experiments herein conducted revealed that the proposed clustering method applied to the color image segmentation problem, achieved for the Probabilistic Rand Index (PRI) performance measure the value of 0.8148 and for the Global Consistency Error (GCE) the value of 0.1701, outperforming twenty-three methods previously proposed in the literature for the BSD300 dataset. Visual comparison confirmed the competitiveness of our approach towards state-of-art methods publicly available in the literature. These results emphasize the great potential of our proposed clustering technique for tackling other applications in computer vision and pattem recognition.
|
504 |
Tratamento bayesiano de interações entre atributos de alta cardinalidade / Handling interactions among high cardinality attributesJambeiro Filho, Jorge Eduardo de Schoucair 11 July 2007 (has links)
Orientador: Jacques Wainer / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-09T21:11:41Z (GMT). No. of bitstreams: 1
JambeiroFilho_JorgeEduardodeSchoucair_D.pdf: 736285 bytes, checksum: b7d7f186f743f9b0e541c857b0ca8226 (MD5)
Previous issue date: 2007 / Resumo: Analisamos o uso de métodos Bayesianos em um problema de classificação de padrões de interesse prático para a Receita Federal do Brasil que é caracterizado pela presença de atributos de alta cardinalidade e pela existência de interações relevantes entre eles. Mostramos que a presença de atributos de alta cardinalidade pode facilmente gerar tantas subdivisões no conjunto de treinamento que, mesmo tendo originalmente uma grande quantidade de dados, acabemos obtendo probabilidades pouco confiáveis, inferidas a partir de poucos exemplos. Revisamos as estratégias usualmente adotadas para lidar com esse problema dentro do universo Bayesiano, exibindo sua dependência em suposições de não interação inaceitáveis em nosso domínio alvo. Mostramos empiricamente que estratégias Bayesianas mais avançadas para tratamento de atributos de alta cardinalidade, como pré-processamento para redução de cardinalidade e substituição de tabelas de probabilidades condicionais (CPTs) de redes Bayesianas (BNs) por tabelas default (DFs), árvores de decisão (DTs) e grafos de decisão (DGs) embora tragam benefícios pontuais não resultam em ganho de desempenho geral em nosso domínio alvo. Propomos um novo método Bayesiano de classificação, chamado de hierarchical pattern Bayes (HPB), que calcula probabilidades posteriores para as classes dado um padrão W combinando as observações de W no conjunto de treinamento com probabilidades prévias que são obtidas recursivamente a partir das observações de padrões estritamente mais genéricos que W. Com esta estratégia, ele consegue capturar interações entre atributos de alta cardinalidade quando há dados suficientes para tal, sem gerar probabilidades pouco confiáveis quando isso não ocorre. Mostramos empiricamente que, em nosso domínio alvo, o HPB traz benefícios significativos com relação a redes Bayesianas com estruturas populares como o naïve Bayes e o tree augmented naïve Bayes, com relação a redes Bayesianas (BNs) onde as tabelas de probabilidades condicionais foram substituídas pelo noisy-OR, por DFs, por DTs e por DGs, e com relação a BNs construídas, após uma fase de redução de cardinalidade usando o agglomerative information bottleneck. Além disso, explicamos como o HPB, pode substituir CPTs e mostramos com testes em outro problema de interesse prático que esta substituição pode trazer ganhos significativos. Por fim, com testes em vários conjuntos de dados públicos da UCI, mostramos que a utilidade do HPB ser bastante ampla / Abstract: In this work, we analyze the use of Bayesian methods in a pattern classification problem of practical interest for Brazil¿s Federal Revenue which is characterized by the presence of high cardinality attributes and by the existence of relevant interactions among them.We show that the presence of high cardinality attributes can easily produce so many subdivisions in the training set that, even having originally a great amount of data, we end up with unreliable probability estimates, inferred from small samples. We cover the most common strategies to deal with this problem within the Bayesian universe and show that they rely strongly on non interaction assumptions that are unacceptable in our target domain. We show empirically that more advanced strategies to handle high cardinality attributes like cardinality reduction by preprocessing and conditional probability tables replacement with default tables, decision trees and decision graphs, in spite of some restricted benefits, do not improve overall performance in our target domain. We propose a new Bayesian classification method, named hierarchical pattern Bayes (HPB), which calculates posterior class probabilities given a pattern W combining the observations of W in the training set with prior class probabilities that are obtained recursively from the observations of patterns that are strictly more generic than W. This way, it can capture interactions among high cardinality attributes when there is enough data, without producing unreliable probabilities when there is not. We show empirically that, in our target domain, HPB achieves significant performance improvements over Bayesian networks with popular structures like naïve Bayes and tree augmented naïve Bayes, over Bayesian networks where traditional conditional probability tables were substituted by noisy-OR gates, default tables, decision trees and decision graphs, and over Bayesian networks constructed after a cardinality reduction preprocessing phase using the agglomerative information bottleneck method. Moreover, we explain how HPB can replace conditional probability tables of Bayesian Networks and show, with tests in another practical problem, that such replacement can result in significant benefits. At last, with tests over several UCI datasets we show that HPB may have a quite wide applicability / Doutorado / Sistemas de Informação / Doutor em Ciência da Computação
|
505 |
Processo de decisão de Markov limitados por linguagem / Language limited Markov decision processesPellegrini, Jerônimo 31 July 2006 (has links)
Orientador: Jacques Wainer / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-08T13:44:24Z (GMT). No. of bitstreams: 1
Pellegrini_Jeronimo_D.pdf: 889995 bytes, checksum: 1b9f02c9ce7815bf114b1b82de6df579 (MD5)
Previous issue date: 2006 / Resumo: Processos de decisão de Markov (MDPs) são usados para modelar situações onde é necessário executar ações em sequência em ambientes com incerteza. Este trabalho define uma nova formulação dos processos de decisão de Markov, adicionando a estes a possibilidade de restringir as ações e observações a serem consideradas a cada época de decisão. Estas restrições são descritas na forma de um autômato finito ? assim, a sequência de possíveis ações e observações consideradas na busca pela política ótima passa a ser uma linguagem regular. Chamamos estes processos de Markov limitados por linguagem (LLMDPs e LL-POMDPs). O uso de autômatos para a especificação de restrições facilita o processo de modelagem de problemas. Apresentamos diferentes abordagens para a solução destes problemas, e comparamos seus desempenhos, mostrando que a solução é viável, e mostramos também que em algumas situações o uso de restrições pode ser usado para acelerar a busca por uma solução. Além disso, apresentamos uma modificação nos LLPOMDPs de forma que seja possível especificar duração probabilística discreta para as ações e observações / Abstract: Markov decision processes (MDPs) are used to model situations where one needs to execute sequences of actions under uncertainty. This work defines a new formulation of Markov decision processes, with the possibility of restricting the actions and observations to be considered at each decision epoch. These restrictions are described as a finite automation, so the sequence of possible actions (and observations) considered during the search for an optimal policy is a regular language. We call these ?language limited Markov decision processes (LL-MDPs and LL-POMDPs). The use of automata for specifying restrictions helps make the modeling process easier. We present different approaches to solve these problems, and compare their performance, showing that the solution is feasible, and we also show that in some situations some restrictions can be used to speed up the search for a solution. Besides that, we also present one modification on LL-POMDPs to make it possible to specify probabilistic discrete duration for actions and observations / Doutorado / Sistemas de Informação / Doutor em Ciência da Computação
|
506 |
Monotonicidade em testes de hipóteses / Monotonicity in hypothesis testsGustavo Miranda da Silva 09 March 2010 (has links)
A maioria dos textos na literatura de testes de hipóteses trata de critérios de otimalidade para um determinado problema de decisão. No entanto, existem, em menor quantidade, alguns textos sobre os problemas de se realizar testes de hipóteses simultâneos e sobre a concordância lógica de suas soluções ótimas. Algo que se espera de testes de hipóteses simultâneos e que, se uma hipótese H1 implica uma hipótese H0, então é desejável que a rejeição da hipótese H0 necessariamente implique na rejeição da hipótese H1, para uma mesma amostra observada. Essa propriedade é chamada aqui de monotonicidade. A fim de estudar essa propriedade sob um ponto de vista mais geral, neste trabalho é definida a nocão de classe de testes de hipóteses, que estende a funcão de teste para uma sigma-álgebra de possíveis hipóteses nulas, e introduzida uma definição de monotonicidade. Também é mostrado, por meio de alguns exemplos simples, que, para um nível de signicância fixado, a classe de testes Razão de Verossimilhanças Generalizada (RVG) não apresenta monotonicidade, ao contrário de testes formulados sob a perspectiva bayesiana, como o teste de Bayes baseado em probabilidades a posteriori, o teste de Lindley e o FBST. Porém, são verificadas, sob a teoria da decisão, quando possível, quais as condições suficientes para que uma classe de testes de hipóteses tenha monotonicidade. / Most of the texts in the literature of hypothesis testing deal with optimality criteria for a single decision problem. However, there are, to a lesser extent, texts on the problem of simultaneous hypothesis testing and the logical consistency of the optimal solutions of such procedures. For instance, the following property should be observed in simultaneous hypothesis testing: if a hypothesis H implies a hypothesis H0, then, on the basis of the same sample observation, the rejection of the hypothesis H0 necessarily should imply the rejection of the hypothesis H. Here, this property is called monotonicity. To investigate this property under a more general point of view, in this work, it is dened rst the notion of a class of hypothesis testing, which extends the test function to a sigma-eld of possible null hypotheses, and then the concept of monotonicity is introduced properly. It is also shown, through some simple examples, that for a xed signicance level, the class of Generalized Likelihood Ratio tests (GLR) does not meet monotonicity, as opposed to tests developed under the Bayesian perspective, such as Bayes tests based on posterior probabilities, Lindleys tests and Full Bayesian Signicance Tests (FBST). Finally, sucient conditions for a class of hypothesis testing to have monotonicity are determined, when possible, under a decision-theoretic approach.
|
507 |
Propriedades lógicas de classes de testes de hipóteses / Logical properties of classes of hypotheses testsGustavo Miranda da Silva 03 November 2014 (has links)
Ao realizar testes de hipóteses simultâneos espera-se que a decisões obtidas neles sejam logicamente consistentes entre si. Neste trabalho, verifica-se sob quais condições testes de Bayes simultâneos atendem às condições lógicas isoladamente ou em conjunto. Demonstra-se que as restrições para que os testes simultâneos atendam essas condições isoladamente são bastante intuitivas. No entanto, ao tentar obedecer as condições conjuntamente, perde-se otimalidade. Além disso, avalia-se a relação entre esses testes de Bayes simultâneos e os testes gerados por estimadores, isto é, mostra-se que, sob algumas condições, tomar uma decisão baseado em um estimador de Bayes é equivalente a tomar uma decisão baseada em um teste de Bayes. Por fim, mostra-se que, se tomamos uma decisão baseada em Estimadores de Máxima Verossimilhança, então essa decisão deve ser igual à tomada por um teste de Bayes e concluímos que essas decisões são admissíveis e obedecem ao Princípio da Verossimilhança. / When performing simultaneous hypotheses testing is expected that the decisions obtained therein are logically consistent with each other. In this work, we find restrictions under which simultaneous Bayes tests meet logical conditions separately or jointly. It is shown that the conditions for the simultaneous tests meet these conditions alone are quite intuitive. However, when trying to obey the conditions jointly, we lose optimality. Furthermore, we evaluate the relationship between these tests and simultaneous Bayes tests generated by estimators, ie, we show that, under some conditions, to choose an estimator based on Bayes decision is equivalent to choosing a decision based on a Bayes test. Finally, we show that if we take a decision based on Maximum Likelihood Estimators, then that decision should be equal to taking a Bayes test and concluded that these decisions are admissible and obey the Likelihood Principle.
|
508 |
Gestão de requisitos subjetivos, estudo de caso do aprimoramento do interior do Legacy 500 / Management of subjective requirements, case study of interior enhancement of the Legacy 500Alessandra Frediani Dias de Castro 09 October 2018 (has links)
Diversos aspectos subjetivos influenciam o cliente no momento da aquisição de um produto. Estética, qualidade percebida e conforto são alguns deles, se o produto não atender às expectativas do cliente relacionadas a isto, corre o risco de se tornar um fracasso de vendas. Os objetivos do produto, quanto aos aspectos subjetivos, denominam-se requisitos subjetivos e são estabelecidos na primeira etapa do desenvolvimento de um novo produto (NPD). Tratá-los como imutáveis ao longo do NPD não condiz com a realidade atual de velozes mudanças. A literatura ainda é inexpressiva em relação à gestão das mudanças dos requisitos subjetivos. Este trabalho busca mostrar a importância de gerenciá-los ao longo de todo o NPD. Quanto mais longo for o ciclo desse processo, maior a chance de que os requisitos precisem ser revistos. Este estudo de caso, do interior do jato executivo Legacy 500, mostra algumas das consequências resultantes da falta de um processo para gerenciar os requisitos subjetivos. Os possíveis impactos estão relacionados com atrasos tanto no próprio projeto do produto em questão, como nos produtos que seriam desenvolvidos na sequência com o mesmo corpo de engenheiros, projetistas e designers e o aumento considerável de custos. Os resultados desta pesquisa apontam fatores internos e externos que podem afetar os requisitos subjetivos e sua gestão. Os internos estão relacionados à estratégia e ao posicionamento da marca, ao processo de gestão, à estrutura organizacional e à competência do(s) decisor(es) em design de produto, além de um profundo conhecimento do mercado e de quem é o potencial cliente, tanto por parte do decisor estratégico, quanto do time operacional. Já os externos estão relacionados às mudanças no mercado, aos novos produtos, às novas tecnologias e aos novos desejos/necessidades dos clientes. Diferentes sistemas, podem sofrer influência destes fatores, de distintas maneiras, no caso de um produto complexo. Também se dedica atenção ao processo decisório relacionado aos requisitos subjetivos, colaborando com a teoria e com a prática desta gestão, sugerindo um modelo que deixa evidente a importância do veículo de análise utilizado e das características do decisor. A natureza subjetiva de muitos aspectos do design do produto parecem conduzir a uma decisão do tipo intuitiva, diretamente relacionada com a experiência formal e profissional do(s) decisor(es). A representatividade do veículo de análise utilizado na avaliação dos requisitos subjetivos precisa ser a maior possível em todos os seus aspectos, já que o ser humano utiliza de todos os seus sentidos para formar a percepção que tem sobre um produto. O protótipo ou outro veículo de análise deve estar completo. A avaliação de partes em separado não gera a mesma percepção que sua avaliação como um todo. Materiais de acabamento, volumetria, resistência e rigidez de mecanismos e de componentes, interfaces, funcionalidades, temperatura, iluminação, ruídos e músicas são alguns dos exemplos que interferem na formação da percepção correta sobre o produto. Um produto que não é atraente para o cliente, não é lucrativo para a empresa. Por isso, gerenciar requisitos subjetivos é vital para a saúde do negócio. / Several subjective aspects influence the customer when purchasing a product. Aesthetics, perceived quality and comfort are some of them, if the product does not meet customer expectations related to this, it runs the risk of becoming a sales failure. The objectives of the product for the subjective aspects are called subjective requirements, they are established in the first stage of the development of a new product (NPD). Treating them as immutable throughout the NPD does not match the current reality of swift changes. The literature is still inexpressive in relation to the management of changes in subjective requirements. This work seeks to show the importance of managing them throughout the entire NPD. The longer the cycle of this process, the greater the chance that requirements need to be revised. This case study from the interior of the Legacy 500 executive jet shows some of the consequences resulting from the lack of a process to manage subjective requirements. The possible impacts, if perceived to be a need for change only during the final evaluation, already on the eve of entering the product on the market, are related to delays both in the project of the product itself and in the products that would be developed in sequence with the same body of engineers, designers and industrial designers and the considerable increase of costs. The results of this research point to internal and external factors that may affect the subjective requirements and their management. Internal factors are related to the strategy and positioning of the brand, the management process, the organizational structure and the competence of the decision maker (s) in product design, as well as a deep knowledge of the market and of who is the potential customer, that is need from both the strategic decision maker and the operational team. The external ones are related to changes in the market, new products, new technologies and new wishes / needs of the clients. Different systems may or may not be influenced from these factors in different ways in the case of a complex product. Attention is also given to the decision-making process related to subjective requirements, collaborating with the theory and practice of this management, suggesting a model that makes clear the importance of the analysis vehicle used and the characteristics of the decision maker. The subjective nature of many aspects of product design seem to lead to an intuitive decision, directly related to the formal and professional experience of the decision maker (s). The representativeness of the vehicle of analysis used in the evaluation of subjective requirements must be the greatest possible in all its aspects, since the human being uses all of his senses to form the perception he has about the product. The prototype or other analysis vehicle must be complete. The evaluation of separate parts does not generate the same perception as the complete set. Finishing materials, volumetry, resistance and rigidity of mechanisms and components, interfaces, functionalities, temperature, lighting, noise, music and other sounds are some of the examples that interfere in the formation of the correct perception about the product. A product that is not attractive to the customer, is not profitable for the company. Therefore, managing subjective requirements is vital to the business health
|
509 |
Computational, experimental, and statistical analyses of social learning in humans and animalsWhalen, Andrew January 2016 (has links)
Social learning is ubiquitous among animals and humans and is thought to be critical to the widespread success of humans and to the development and evolution of human culture. Evolutionary theory, however, suggests that social learning alone may not be adaptive but that individuals may need to be selective in who and how they copy others. One of the key findings of these evolutionary models (reviewed in Chapter 1) is that social information may be widely adaptive if individuals are able to combine social and asocial sources of information together strategically. However, up until this point the focus of theoretic models has been on the population level consequences of different social learning strategies, and not on how individuals combine social and asocial information on specific tasks. In Chapter 2 I carry out an analysis of how animal learners might incorporate social information into a reinforcement learning framework and find that even limited, low-fidelity copying of actions in an action sequence may combine with asocial learning to result in high fidelity transmission of entire action sequences. In Chapter 3 I describe a series of experiments that find that human learners flexibly use a conformity biased learning strategy to learn from multiple demonstrators depending on demonstrator accuracy, either indicated by environmental cues or past experience with these demonstrators. The chapter reveals close quantitative and qualitative matches between participant's performance and a Bayesian model of social learning. In both Chapters 2 and 3 I find, consistent with previous evolutionary findings, that by combining social and asocial sources of information together individuals are able to learn about the world effectively. Exploring how animals use social learning experimentally can be a substantially more difficult task than exploring human social learning. In Chapter 4, I develop and present a refined version of Network Based Diffusion analysis to provide a statistical framework for inferring social learning mechanisms from animal diffusion experiments. In Chapter 5 I move from examining the effects of social learning at an individual level to examining their population level outcomes and provide an analysis of how fine-grained population structure may alter the spread of novel behaviours through a population. I find that although a learner's social learning strategy and the learnability of a novel behaviour strongly impact how likely the behaviour is to spread through the population, fine grained population structure plays a much smaller role. In Chapter 6 I summarize the results of this thesis, and provide suggestions for future work to understand how individuals, humans and other animals alike, use social information.
|
510 |
Bayesian hierarchical modelling with application in spatial epidemiologySouthey, Richard January 2018 (has links)
Disease mapping and spatial statistics have become an important part of modern day statistics and have increased in popularity as the methods and techniques have evolved. The application of disease mapping is not only confined to the analysis of diseases as other applications of disease mapping can be found in Econometric and financial disciplines. This thesis will consider two data sets. These are the Georgia oral cancer 2004 data set and the South African acute pericarditis 2014 data set. The Georgia data set will be used to assess the hyperprior sensitivity of the precision for the uncorrelated heterogeneity and correlated heterogeneity components in a convolution model. The correlated heterogeneity will be modelled by a conditional autoregressive prior distribution and the uncorrelated heterogeneity will be modelled with a zero mean Gaussian prior distribution. The sensitivity analysis will be performed using three models with conjugate, Jeffreys' and a fixed parameter prior for the hyperprior distribution of the precision for the uncorrelated heterogeneity component. A simulation study will be done to compare four prior distributions which will be the conjugate, Jeffreys', probability matching and divergence priors. The three models will be fitted in WinBUGS® using a Bayesian approach. The results of the three models will be in the form of disease maps, figures and tables. The results show that the hyperprior of the precision for the uncorrelated heterogeneity and correlated heterogeneity components are sensitive to changes and will result in different results depending on the specification of the hyperprior distribution of the precision for the two components in the model. The South African data set will be used to examine whether there is a difference between the proper conditional autoregressive prior and intrinsic conditional autoregressive prior for the correlated heterogeneity component in a convolution model. Two models will be fitted in WinBUGS® for this comparison. Both the hyperpriors of the precision for the uncorrelated heterogeneity and correlated heterogeneity components will be modelled using a Jeffreys' prior distribution. The results show that there is no significant difference between the results of the model with a proper conditional autoregressive prior and intrinsic conditional autoregressive prior for the South African data, although there are a few disadvantages of using a proper conditional autoregressive prior for the correlated heterogeneity which will be stated in the conclusion.
|
Page generated in 0.0817 seconds