• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • Tagged with
  • 4
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Emergent Collective Properties in Societies of Neural Networks / Propriedades Coletivas Emergentes em Sociedades de Redes Neurais

Simões, Lucas Silva 29 August 2018 (has links)
This project deals with the study of the social learning dynamics of agents in a society. For that we employ techniques from statistical mechanics, machine learning and probability theory. Agents interact in pairs by exchanging for/against opinions about issues using an algorithm constrained by available information. Making use of a maximum entropy analysis one can describe the interacting pair as a dynamics along the gradient of the logarithm of the evidence. This permits introducing energy like quantities and approximate global Hamiltonians. We test different hypothesis having in mind the limitations and advantages of each one. Knowledge of the expected value of the Hamiltonian is relevant information for the state of the society, inducing a canonical distribution by maximum entropy. The results are interpreted with the usual tools from statistical mechanics and thermodynamics. Some of the questions we discuss are: the existence of phase transitions separating ordered and disordered phases depending on the society parameters; how the issue being discussed by the agents influences the outcomes of the discussion, and how this reflects on the overall organization of the group; and the possible different interactions between opposing parties, and to which extent disagreement affects the cohesiveness of the society. / Esse projeto lida com o estudo da dinâmica de aprendizado social de agentes em uma sociedade. Para isso empregamos técnicas de mecânica estatística, aprendizado de máquina e teoria de probabilidades. Agentes interagem em pares trocando opiniões pró/contra questões usando um algoritmo restringido pela informação disponível. Fazendo-se uso de uma análise de máxima entropia, pode-se descrever o par da interação como uma dinâmica ao longo do gradiente do logaritmo da evidência. Isso permite introduzir quantidades similares a energia e Hamiltonianos globais aproximados. Testamos diferentes hipóteses tendo em mente as limitações e as vantagens de cada uma. Conhecimento do valor esperado do Hamiltoniano é informação relevante para o estado da sociedade, induzindo uma distribuição canônica a partir de máxima entropia. Os resultados são interpretados com as ferramentas usuais de mecânica estatística e termodinâmica. Algumas das questões que discutimos são: a existência de transições de fase separando fases ordenada e desordenada dependendo dos parâmetros da sociedade; o como a questão sendo discutida pelos agentes influencia os resultados da discussão, e como isso se reflete na organização do grupo como um todo; e as possíveis diferentes interações entre partidos opostos, e até que ponto o desacordo afeta a coesão da sociedade.
2

Complexidade e tomada de decisão / Complexity of decision-making in human agents

Dobay, Eduardo Sangiorgio 11 November 2014 (has links)
Neste trabalho foi elaborada uma estrutura de modelos probabilísticos simples que pudessem descrever o processo de tomada de decisão de agentes humanos que são confrontados com a tarefa de prever elementos de uma sequência aleatória gerada por uma cadeia de Markov de memória L. Essa estrutura partiu de uma abordagem bayesiana em que o agente infere uma distribuição de probabilidades a partir de uma série de observações da sequência e de suas próprias respostas, considerando que o agente tenha uma memória de tamanho K. Como resultado da abordagem bayesiana, o agente adota uma estratégia ótima que consiste na perseveração na alternativa mais provável dado o histórico das últimas tentativas; por conta disso e de observações experimentais de que humanos tendem a adotar nesse tipo de problema estratégias sub-ótimas, por exemplo a de pareamento de probabilidades (probability matching), foram desenvolvidas variações sobre esse modelo que tentassem descrever mais de perto o comportamento adotado por humanos. Nesse sentido, foram adotadas as variáveis de troca de resposta (possível ação tomada pelo agente) e de recompensa (possível resultado da ação) na formulação do modelo e foram adicionados parâmetros, inspirados em modelos de ação dopaminérgica, que permitissem um desvio da estratégia ótima resultante da abordagem bayesiana. Os modelos construídos nessa estrutura foram simulados computacionalmente para diversos valores dos parâmetros, incluindo as memórias K e L do agente e da cadeia de Markov, respectivamente. Através de análises de correlação, esses resultados foram comparados aos dados experimentais, de um grupo de pesquisa do Instituto de Ciências Biomédicas da USP, referentes a tarefas de tomada de decisão envolvendo pessoas de diversas faixas etárias (de 3 a 73 anos) e cadeias de Markov de memórias 0, 1 e 2. Nessa comparação, concluiu-se que as diferenças entre grupos etários no experimento podem ser explicadas em nossa modelagem através da variação da memória K do agente crianças de até 5 anos mostram um limite K = 1, e as de até 12 anos mostram um limite K = 2 e da variação de um parâmetro de reforço de aprendizado dependendo do grupo e da situação de decisão à qual os indivíduos eram expostos, o valor ajustado desse parâmetro variou de 10% para baixo até 30% para cima do seu valor original de acordo com a abordagem bayesiana. / In this work we developed a simple probabilistic modeling framework that could describe the process of decision making in human agents that are presented with the task of predicting elements of a random sequence generated by a Markov chain with memory L. Such framework arised from a Bayesian approach in which the agent infers a probability distribution from a series of observations on the sequence and on its own answers, and considers that the agent\'s memory has length K. As a result of the Bayesian approach, the agent adopts an optimal strategy that consists in perseveration of the most likely alternative given the history of the last few trials; because of that and of experimental evidence that humans tend, in such kinds of problems, to adopt suboptimal strategies such as probability matching, variations on that model were developed in an attempt to have a closer description of the behavior adopted by humans. In that sense, the `shift\' (possible action taken by the agent on its response) and `reward\' (possible result of the action) variables were adopted in the formulation of the model, and parameters inspired by models of dopaminergic action were added to allow deviation from the optimal strategy that resulted from the Bayesian approach. The models developed in that framework were computationally simulated for many values of the parameters, including the agent\'s and the Markov chain\'s memory lengths K and L respectively. Through correlation analysis these results were compared to experimental data, from a research group from the Biomedical Science Institute at USP, regarding decision making tasks that involved people of various ages (3 to 73 years old) and Markov chains of orders 0, 1 and 2. In this comparison it was concluded that the differences between age groups in the experiment can be explained in our modeling through variation of the agent\'s memory length K children up to 5 years old exhibited a limitation of K = 1, and those up to 12 years old were limited to K = 2 and through variation of a learning reinforcement parameter depending on the group and the decision situation to which the candidates were exposed, the fitted value for that parameter ranged from 10% below to 30% above its original value according to the Bayesian approach.
3

Emergent Collective Properties in Societies of Neural Networks / Propriedades Coletivas Emergentes em Sociedades de Redes Neurais

Lucas Silva Simões 29 August 2018 (has links)
This project deals with the study of the social learning dynamics of agents in a society. For that we employ techniques from statistical mechanics, machine learning and probability theory. Agents interact in pairs by exchanging for/against opinions about issues using an algorithm constrained by available information. Making use of a maximum entropy analysis one can describe the interacting pair as a dynamics along the gradient of the logarithm of the evidence. This permits introducing energy like quantities and approximate global Hamiltonians. We test different hypothesis having in mind the limitations and advantages of each one. Knowledge of the expected value of the Hamiltonian is relevant information for the state of the society, inducing a canonical distribution by maximum entropy. The results are interpreted with the usual tools from statistical mechanics and thermodynamics. Some of the questions we discuss are: the existence of phase transitions separating ordered and disordered phases depending on the society parameters; how the issue being discussed by the agents influences the outcomes of the discussion, and how this reflects on the overall organization of the group; and the possible different interactions between opposing parties, and to which extent disagreement affects the cohesiveness of the society. / Esse projeto lida com o estudo da dinâmica de aprendizado social de agentes em uma sociedade. Para isso empregamos técnicas de mecânica estatística, aprendizado de máquina e teoria de probabilidades. Agentes interagem em pares trocando opiniões pró/contra questões usando um algoritmo restringido pela informação disponível. Fazendo-se uso de uma análise de máxima entropia, pode-se descrever o par da interação como uma dinâmica ao longo do gradiente do logaritmo da evidência. Isso permite introduzir quantidades similares a energia e Hamiltonianos globais aproximados. Testamos diferentes hipóteses tendo em mente as limitações e as vantagens de cada uma. Conhecimento do valor esperado do Hamiltoniano é informação relevante para o estado da sociedade, induzindo uma distribuição canônica a partir de máxima entropia. Os resultados são interpretados com as ferramentas usuais de mecânica estatística e termodinâmica. Algumas das questões que discutimos são: a existência de transições de fase separando fases ordenada e desordenada dependendo dos parâmetros da sociedade; o como a questão sendo discutida pelos agentes influencia os resultados da discussão, e como isso se reflete na organização do grupo como um todo; e as possíveis diferentes interações entre partidos opostos, e até que ponto o desacordo afeta a coesão da sociedade.
4

Complexidade e tomada de decisão / Complexity of decision-making in human agents

Eduardo Sangiorgio Dobay 11 November 2014 (has links)
Neste trabalho foi elaborada uma estrutura de modelos probabilísticos simples que pudessem descrever o processo de tomada de decisão de agentes humanos que são confrontados com a tarefa de prever elementos de uma sequência aleatória gerada por uma cadeia de Markov de memória L. Essa estrutura partiu de uma abordagem bayesiana em que o agente infere uma distribuição de probabilidades a partir de uma série de observações da sequência e de suas próprias respostas, considerando que o agente tenha uma memória de tamanho K. Como resultado da abordagem bayesiana, o agente adota uma estratégia ótima que consiste na perseveração na alternativa mais provável dado o histórico das últimas tentativas; por conta disso e de observações experimentais de que humanos tendem a adotar nesse tipo de problema estratégias sub-ótimas, por exemplo a de pareamento de probabilidades (probability matching), foram desenvolvidas variações sobre esse modelo que tentassem descrever mais de perto o comportamento adotado por humanos. Nesse sentido, foram adotadas as variáveis de troca de resposta (possível ação tomada pelo agente) e de recompensa (possível resultado da ação) na formulação do modelo e foram adicionados parâmetros, inspirados em modelos de ação dopaminérgica, que permitissem um desvio da estratégia ótima resultante da abordagem bayesiana. Os modelos construídos nessa estrutura foram simulados computacionalmente para diversos valores dos parâmetros, incluindo as memórias K e L do agente e da cadeia de Markov, respectivamente. Através de análises de correlação, esses resultados foram comparados aos dados experimentais, de um grupo de pesquisa do Instituto de Ciências Biomédicas da USP, referentes a tarefas de tomada de decisão envolvendo pessoas de diversas faixas etárias (de 3 a 73 anos) e cadeias de Markov de memórias 0, 1 e 2. Nessa comparação, concluiu-se que as diferenças entre grupos etários no experimento podem ser explicadas em nossa modelagem através da variação da memória K do agente crianças de até 5 anos mostram um limite K = 1, e as de até 12 anos mostram um limite K = 2 e da variação de um parâmetro de reforço de aprendizado dependendo do grupo e da situação de decisão à qual os indivíduos eram expostos, o valor ajustado desse parâmetro variou de 10% para baixo até 30% para cima do seu valor original de acordo com a abordagem bayesiana. / In this work we developed a simple probabilistic modeling framework that could describe the process of decision making in human agents that are presented with the task of predicting elements of a random sequence generated by a Markov chain with memory L. Such framework arised from a Bayesian approach in which the agent infers a probability distribution from a series of observations on the sequence and on its own answers, and considers that the agent\'s memory has length K. As a result of the Bayesian approach, the agent adopts an optimal strategy that consists in perseveration of the most likely alternative given the history of the last few trials; because of that and of experimental evidence that humans tend, in such kinds of problems, to adopt suboptimal strategies such as probability matching, variations on that model were developed in an attempt to have a closer description of the behavior adopted by humans. In that sense, the `shift\' (possible action taken by the agent on its response) and `reward\' (possible result of the action) variables were adopted in the formulation of the model, and parameters inspired by models of dopaminergic action were added to allow deviation from the optimal strategy that resulted from the Bayesian approach. The models developed in that framework were computationally simulated for many values of the parameters, including the agent\'s and the Markov chain\'s memory lengths K and L respectively. Through correlation analysis these results were compared to experimental data, from a research group from the Biomedical Science Institute at USP, regarding decision making tasks that involved people of various ages (3 to 73 years old) and Markov chains of orders 0, 1 and 2. In this comparison it was concluded that the differences between age groups in the experiment can be explained in our modeling through variation of the agent\'s memory length K children up to 5 years old exhibited a limitation of K = 1, and those up to 12 years old were limited to K = 2 and through variation of a learning reinforcement parameter depending on the group and the decision situation to which the candidates were exposed, the fitted value for that parameter ranged from 10% below to 30% above its original value according to the Bayesian approach.

Page generated in 0.0714 seconds