• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • Tagged with
  • 10
  • 10
  • 9
  • 9
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Redes de neurônios não-monótonos em camadas

Neves, Fábio Schittler January 2006 (has links)
Neste trabalho, derivamos equações de recorrência que descrevem a dinâmica exata de uma rede neural não-monótona, em camadas, através de uma análise sinal ruído. Para poder avaliar o seu estado dinâmico, definimos a semelhança do estado da rede com alguma configuração específica desta como medida de interesse. Vamos nos referir a estas configurações por "padrões" e a esta medida de interesse por "overlap". Obtivemos as equações dinâmicas na recuperação de um padrão e na recuperação simultânea de dois padrões. Esta arquitetura apresenta conexões apenas entre camadas adjacentes no sentido entrada-saída e padrões descorrelacionados entre as camadas. Assim, a propagação de um sinal nesta rede se dá ao passar por uma seqüência de padrões pré-definidos, de camada para camada. Nesta dinâmica, os pontos fixos correspondem a um valor estacionário do overlap desta seqüência de padrões e não do overlap estacionário de um padrão específico. Nós constatamos, na recuperação de um padrão à temperatura zero, que o modelo não-monótono é capaz de armazenar um conjunto maior de informação que o modelo monótono. Encontramos, além da presença das soluções de ponto fixo, a de atratores cíclicos e caóticos, que foram identificados e expostos graficamente.
2

Redes de neurônios não-monótonos em camadas

Neves, Fábio Schittler January 2006 (has links)
Neste trabalho, derivamos equações de recorrência que descrevem a dinâmica exata de uma rede neural não-monótona, em camadas, através de uma análise sinal ruído. Para poder avaliar o seu estado dinâmico, definimos a semelhança do estado da rede com alguma configuração específica desta como medida de interesse. Vamos nos referir a estas configurações por "padrões" e a esta medida de interesse por "overlap". Obtivemos as equações dinâmicas na recuperação de um padrão e na recuperação simultânea de dois padrões. Esta arquitetura apresenta conexões apenas entre camadas adjacentes no sentido entrada-saída e padrões descorrelacionados entre as camadas. Assim, a propagação de um sinal nesta rede se dá ao passar por uma seqüência de padrões pré-definidos, de camada para camada. Nesta dinâmica, os pontos fixos correspondem a um valor estacionário do overlap desta seqüência de padrões e não do overlap estacionário de um padrão específico. Nós constatamos, na recuperação de um padrão à temperatura zero, que o modelo não-monótono é capaz de armazenar um conjunto maior de informação que o modelo monótono. Encontramos, além da presença das soluções de ponto fixo, a de atratores cíclicos e caóticos, que foram identificados e expostos graficamente.
3

Redes de neurônios não-monótonos em camadas

Neves, Fábio Schittler January 2006 (has links)
Neste trabalho, derivamos equações de recorrência que descrevem a dinâmica exata de uma rede neural não-monótona, em camadas, através de uma análise sinal ruído. Para poder avaliar o seu estado dinâmico, definimos a semelhança do estado da rede com alguma configuração específica desta como medida de interesse. Vamos nos referir a estas configurações por "padrões" e a esta medida de interesse por "overlap". Obtivemos as equações dinâmicas na recuperação de um padrão e na recuperação simultânea de dois padrões. Esta arquitetura apresenta conexões apenas entre camadas adjacentes no sentido entrada-saída e padrões descorrelacionados entre as camadas. Assim, a propagação de um sinal nesta rede se dá ao passar por uma seqüência de padrões pré-definidos, de camada para camada. Nesta dinâmica, os pontos fixos correspondem a um valor estacionário do overlap desta seqüência de padrões e não do overlap estacionário de um padrão específico. Nós constatamos, na recuperação de um padrão à temperatura zero, que o modelo não-monótono é capaz de armazenar um conjunto maior de informação que o modelo monótono. Encontramos, além da presença das soluções de ponto fixo, a de atratores cíclicos e caóticos, que foram identificados e expostos graficamente.
4

[en] A CONTENT ADDRESSABLE MEMORY BASED ARCHITECTURE TO SUPPORT A PROLOG VIRTUAL MACHINE / [pt] UMA ARQUITETURA BASEADA EM MEMÓRIA ASSOCIATIVA PARA SUPORTE A UMA MÁQUINA VIRTUAL PROLOG

MALENA OSORIO HOR-MEYLL 12 November 2009 (has links)
[pt] As arquiteturas convencionais de computadores, baseadas no modelo de Von Neumann, não implementam eficientemente a linguagem Prolog, fundamentada em mecanismos de unificação e retrocesso automático. Este trabalho propõe a arquitetura de um acelerador, baseado a uma máquina virtual Prolog (PLM) desenvolvida na COPPE/UFRJ. A arquitetura proposta aumenta a eficiência da máquina virtual explorando o paralelismo da memória associativa na realização do mecanismo de retrocesso. O impacto no desempenho da máquina virtual decorrente da nova arquitetura foi avaliado por simulação utilizando programas clássicos encontrados na literatura. / [en] Conventional computer architectures based on Von Neumann’s model do not efficiently implement the Prolog language, founded on unification and automatic backtracking mechanisms. This work presents the architecture of a content addressable memory accelerator to be connected to a Prolog Virtual machine (PLM) developed at COPPE/UFRJ. The presented architecture increases the virtual machine’s efficiency by exploring the content addressable memory’s parallelism to implement the backtracking mechanism. The impact on the virtual machine’s performance due to the new architecture was evaluated by simulation, using classical programs found on the literature.
5

Dinâmica e mecânica estatística de modelos de redes neurais

Metz, Fernando Lucas January 2008 (has links)
Estudamos neste trabalho o comportamento de modelos de redes neurais compostos de neurônios (ou sítios) e padrões descritos por variáveis binárias, onde cada neurônio conecta-se a um número macroscópico de neurônios vizinhos - modelos de campo médio - por meio de sinapses ou interações, cuja forma é escolhida de modo que a rede seja capaz de executar tarefas específicas. Três modelos são investigados neste trabalho: o modelo de Little-Hopfield e dois modelos de processamento sequencial, um com interações simétricas e outro com interações assimétricas. As sinapses do modelo de Little-Hopfield incluem apenas o termo Hebbiano, que tende a estabilizar a rede em um dos padrões, favorecendo sua recuperação. As sinapses dos modelos de processamento sequencial envolvem a competição entre o termo Hebbiano e um termo sequencial, que provoca transições dos estados entre os diferentes padrões armazenados, favorecendo a recuperação de uma sequência de padrões. Nos concentramos essencialmente na análise das propriedades dinâmicas e estacionárias das soluções vinculadas a esses dois modos de processamento de informação, característicos de modelos de memória associativa. A competição entre a recuperação de um padrão e o processamento de uma sequência é responsável pela riqueza exibida pelos diagTamas de fases dos modelos de processamento sequencial, os quais incluem a presença de soluções cíclicas e de ponto-fixo. O comportamento dos modelos de interesse é analisado em três arquiteturas: na rede em camadas, na rede recorrente e numa rede dual, que interpola entre as duas primeiras arquiteturas. Com relação à metodologia, a rede em camadas e a rede recorrente são estudadas através de um tratamento dinàmico, utilizando a análise de sinal-ruído no primeiro caso e o mÉ~tododa funcional geratriz, com simulações numéricas baseadas no procedimento de Eissfeller e Opper, no segundo caso. Os estados estacionários da rede dual são estudados por meio da mecânica estatística de equilíbrio, utilizando o método das réplicas. Resultados para o comportamento desses sistemas são discutidos considerando os regimes de armazenamento finito e infinito de padrões. Apesar dos modelos de processamento sequencial estudados aqui apresentarem diversas limitações com relação a redes de neurônios biológicos, as propriedades qualitativas das soluções exibidas por esses sistemas podem ser interessantes de um ponto de vista biológico. / We study in this work the behaviour of neural network models composed of neurons (01'sites) and patterns described by binary variables, in which each neuron is connected to a macroscopic number of neighbours - mean-field models - by means of synapses or interactions, whose form is chosen in a way that the network is able to perform specific tasks. Three models are investigated in this work: the Little-Hopfield model and two sequence processing models, one with symmetric interactions and another with asymmetric interactions. The synapses of the Little-Hopfield model include only the Hebbian term, which tends to stabilise the network in one of the patterns, favouring its retrieval. The synapses of the sequence processing models involve the competition between the Hebbian term and a sequential term, which generates transitions of states between the stored patterns, favouring the retrieval of a sequence of patterns. \Ve mainly concentrate on the dynamical and stationary properties of the solutions related to both kinds of information processing, typical of associative memory models. The competition between pattern retrieval and sequence processing is responsible for the richness exhibited by the phase diagrams of the sequence processing models, which include the presence of cyclic and fixed-point solutions. The behaviour of the models is analysed in three architectures: the feed-forward layered network, the recurrent network and the dual network, that interpolates between the first two architectures. With respect to the methodology, the strictly feed-forward and recurrent neural networks are studied through a dynamical approach, using the signalto- noise analysis and the generating functional method, respectively. Explicit results for the latter are implemented by numerical simulations following a method of Eissfeller and Opper. The stationary states of the dual network are studied by means of the equilibrium statistical mechanics, using the replica method. Results for the behaviour of these systems are discussed for finite and extensive loading of patterns. Although the sequence processing models studied here have several limitations with respect to biological networks, the qualitative properties of the solutions ex.hibited by these systems may be interesting from a biological point of view.
6

Dinâmica e mecânica estatística de modelos de redes neurais

Metz, Fernando Lucas January 2008 (has links)
Estudamos neste trabalho o comportamento de modelos de redes neurais compostos de neurônios (ou sítios) e padrões descritos por variáveis binárias, onde cada neurônio conecta-se a um número macroscópico de neurônios vizinhos - modelos de campo médio - por meio de sinapses ou interações, cuja forma é escolhida de modo que a rede seja capaz de executar tarefas específicas. Três modelos são investigados neste trabalho: o modelo de Little-Hopfield e dois modelos de processamento sequencial, um com interações simétricas e outro com interações assimétricas. As sinapses do modelo de Little-Hopfield incluem apenas o termo Hebbiano, que tende a estabilizar a rede em um dos padrões, favorecendo sua recuperação. As sinapses dos modelos de processamento sequencial envolvem a competição entre o termo Hebbiano e um termo sequencial, que provoca transições dos estados entre os diferentes padrões armazenados, favorecendo a recuperação de uma sequência de padrões. Nos concentramos essencialmente na análise das propriedades dinâmicas e estacionárias das soluções vinculadas a esses dois modos de processamento de informação, característicos de modelos de memória associativa. A competição entre a recuperação de um padrão e o processamento de uma sequência é responsável pela riqueza exibida pelos diagTamas de fases dos modelos de processamento sequencial, os quais incluem a presença de soluções cíclicas e de ponto-fixo. O comportamento dos modelos de interesse é analisado em três arquiteturas: na rede em camadas, na rede recorrente e numa rede dual, que interpola entre as duas primeiras arquiteturas. Com relação à metodologia, a rede em camadas e a rede recorrente são estudadas através de um tratamento dinàmico, utilizando a análise de sinal-ruído no primeiro caso e o mÉ~tododa funcional geratriz, com simulações numéricas baseadas no procedimento de Eissfeller e Opper, no segundo caso. Os estados estacionários da rede dual são estudados por meio da mecânica estatística de equilíbrio, utilizando o método das réplicas. Resultados para o comportamento desses sistemas são discutidos considerando os regimes de armazenamento finito e infinito de padrões. Apesar dos modelos de processamento sequencial estudados aqui apresentarem diversas limitações com relação a redes de neurônios biológicos, as propriedades qualitativas das soluções exibidas por esses sistemas podem ser interessantes de um ponto de vista biológico. / We study in this work the behaviour of neural network models composed of neurons (01'sites) and patterns described by binary variables, in which each neuron is connected to a macroscopic number of neighbours - mean-field models - by means of synapses or interactions, whose form is chosen in a way that the network is able to perform specific tasks. Three models are investigated in this work: the Little-Hopfield model and two sequence processing models, one with symmetric interactions and another with asymmetric interactions. The synapses of the Little-Hopfield model include only the Hebbian term, which tends to stabilise the network in one of the patterns, favouring its retrieval. The synapses of the sequence processing models involve the competition between the Hebbian term and a sequential term, which generates transitions of states between the stored patterns, favouring the retrieval of a sequence of patterns. \Ve mainly concentrate on the dynamical and stationary properties of the solutions related to both kinds of information processing, typical of associative memory models. The competition between pattern retrieval and sequence processing is responsible for the richness exhibited by the phase diagrams of the sequence processing models, which include the presence of cyclic and fixed-point solutions. The behaviour of the models is analysed in three architectures: the feed-forward layered network, the recurrent network and the dual network, that interpolates between the first two architectures. With respect to the methodology, the strictly feed-forward and recurrent neural networks are studied through a dynamical approach, using the signalto- noise analysis and the generating functional method, respectively. Explicit results for the latter are implemented by numerical simulations following a method of Eissfeller and Opper. The stationary states of the dual network are studied by means of the equilibrium statistical mechanics, using the replica method. Results for the behaviour of these systems are discussed for finite and extensive loading of patterns. Although the sequence processing models studied here have several limitations with respect to biological networks, the qualitative properties of the solutions ex.hibited by these systems may be interesting from a biological point of view.
7

Dinâmica e mecânica estatística de modelos de redes neurais

Metz, Fernando Lucas January 2008 (has links)
Estudamos neste trabalho o comportamento de modelos de redes neurais compostos de neurônios (ou sítios) e padrões descritos por variáveis binárias, onde cada neurônio conecta-se a um número macroscópico de neurônios vizinhos - modelos de campo médio - por meio de sinapses ou interações, cuja forma é escolhida de modo que a rede seja capaz de executar tarefas específicas. Três modelos são investigados neste trabalho: o modelo de Little-Hopfield e dois modelos de processamento sequencial, um com interações simétricas e outro com interações assimétricas. As sinapses do modelo de Little-Hopfield incluem apenas o termo Hebbiano, que tende a estabilizar a rede em um dos padrões, favorecendo sua recuperação. As sinapses dos modelos de processamento sequencial envolvem a competição entre o termo Hebbiano e um termo sequencial, que provoca transições dos estados entre os diferentes padrões armazenados, favorecendo a recuperação de uma sequência de padrões. Nos concentramos essencialmente na análise das propriedades dinâmicas e estacionárias das soluções vinculadas a esses dois modos de processamento de informação, característicos de modelos de memória associativa. A competição entre a recuperação de um padrão e o processamento de uma sequência é responsável pela riqueza exibida pelos diagTamas de fases dos modelos de processamento sequencial, os quais incluem a presença de soluções cíclicas e de ponto-fixo. O comportamento dos modelos de interesse é analisado em três arquiteturas: na rede em camadas, na rede recorrente e numa rede dual, que interpola entre as duas primeiras arquiteturas. Com relação à metodologia, a rede em camadas e a rede recorrente são estudadas através de um tratamento dinàmico, utilizando a análise de sinal-ruído no primeiro caso e o mÉ~tododa funcional geratriz, com simulações numéricas baseadas no procedimento de Eissfeller e Opper, no segundo caso. Os estados estacionários da rede dual são estudados por meio da mecânica estatística de equilíbrio, utilizando o método das réplicas. Resultados para o comportamento desses sistemas são discutidos considerando os regimes de armazenamento finito e infinito de padrões. Apesar dos modelos de processamento sequencial estudados aqui apresentarem diversas limitações com relação a redes de neurônios biológicos, as propriedades qualitativas das soluções exibidas por esses sistemas podem ser interessantes de um ponto de vista biológico. / We study in this work the behaviour of neural network models composed of neurons (01'sites) and patterns described by binary variables, in which each neuron is connected to a macroscopic number of neighbours - mean-field models - by means of synapses or interactions, whose form is chosen in a way that the network is able to perform specific tasks. Three models are investigated in this work: the Little-Hopfield model and two sequence processing models, one with symmetric interactions and another with asymmetric interactions. The synapses of the Little-Hopfield model include only the Hebbian term, which tends to stabilise the network in one of the patterns, favouring its retrieval. The synapses of the sequence processing models involve the competition between the Hebbian term and a sequential term, which generates transitions of states between the stored patterns, favouring the retrieval of a sequence of patterns. \Ve mainly concentrate on the dynamical and stationary properties of the solutions related to both kinds of information processing, typical of associative memory models. The competition between pattern retrieval and sequence processing is responsible for the richness exhibited by the phase diagrams of the sequence processing models, which include the presence of cyclic and fixed-point solutions. The behaviour of the models is analysed in three architectures: the feed-forward layered network, the recurrent network and the dual network, that interpolates between the first two architectures. With respect to the methodology, the strictly feed-forward and recurrent neural networks are studied through a dynamical approach, using the signalto- noise analysis and the generating functional method, respectively. Explicit results for the latter are implemented by numerical simulations following a method of Eissfeller and Opper. The stationary states of the dual network are studied by means of the equilibrium statistical mechanics, using the replica method. Results for the behaviour of these systems are discussed for finite and extensive loading of patterns. Although the sequence processing models studied here have several limitations with respect to biological networks, the qualitative properties of the solutions ex.hibited by these systems may be interesting from a biological point of view.
8

Estabilidade de atividade basal, recuperação e formação de memórias em redes de neurônios / Stability of basal activity, retrieval and formation of memories in networks of spiking neurons

Agnes, Everton João January 2014 (has links)
O encéfalo, através de complexa atividade elétrica, é capaz de processar diversos tipos de informação, que são reconhecidos, memorizados e recuperados. A base do processamento é dada pela atividade de neurônios, que se comunicam principalmente através de eventos discretos no tempo: os potenciais de ação. Os disparos desses potenciais de ação podem ser observados por técnicas experimentais; por exemplo, é possível medir os instantes dos disparos dos potenciais de ação de centenas de neurônios em camundongos vivos. No entanto, as intensidades das conexões entre esses neurônios não são totalmente acessíveis, o que, além de outros fatores, impossibilita um entendimento mais completo do funcionamento da rede neural. Desse modo, a neurociência computacional tem papel importante para o entendimento dos processos envolvidos no encéfalo, em vários níveis de detalhamento. Dentro da área da neurociência computacional, o presente trabalho aborda a aquisição e recuperação de memórias dadas por padrões espaciais, onde o espaço é definido pelos neurônios da rede simulada. Primeiro utilizamos o conceito da regra de Hebb para construir redes de neurônios com conexões previamente definidas por esses padrões espaciais. Se as memórias são armazenadas nas conexões entre os neurônios, então a inclusão de um período de aprendizado torna necessária a implementação de plasticidade nos pesos sinápticos. As regras de modificação sináptica que permitem memorização (Hebbianas) geralmente causam instabilidades na atividade dos neurônios. Com isso desenvolvemos regras de plasticidade homeostática capazes de estabilizar a atividade basal de redes de neurônios. Finalizamos com o estudo analítico e numérico de regras de plasticidade sináptica que permitam o aprendizado não-supervisionado por elevação da taxa de disparos de potenciais de ação de neurônios. Mostramos que, com uma regra de aprendizado baseada em evidências experimentais, a recuperação de padrões memorizados é possível, com ativação supervisionada ou espontânea. / The brain, through complex electrical activity, is able to process different types of information, which are encoded, stored and retrieved. The processing is based on the activity of neurons that communicate primarily by discrete events in time: the action potentials. These action potentials can be observed via experimental techniques; for example, it is possible to measure the moment of action potentials (spikes) of hundreds of neurons in living mice. However, the strength of the connections among these neurons is not fully accessible, which, among other factors, preclude a more complete understanding of the neural network. Thus, computational neuroscience has an important role in understanding the processes involved in the brain, at various levels of detail. Within the field of computational neuroscience, this work presents a study on the acquisition and retrieval of memories given by spatial patterns, where space is defined by the neurons of the simulated network. First we use Hebb’s rule to build up networks of spiking neurons with static connections chosen from these spatial patterns. If memories are stored in the connections between neurons, then synaptic weights should be plastic so that learning is possible. Synaptic plasticity rules that allow memory formation (Hebbian) usually introduce instabilities on the neurons’ activity. Therefore, we developed homeostatic plasticity rules that stabilize baseline activity regimes in neural networks of spiking neurons. This thesis ends with analytical and numerical studies regarding plasticity rules that allow unsupervised learning by increasing the activity of specific neurons. We show that, with a plasticity rule based on experimental evidences, retrieval of learned patterns is possible, either with supervised or spontaneous recalling.
9

Estabilidade de atividade basal, recuperação e formação de memórias em redes de neurônios / Stability of basal activity, retrieval and formation of memories in networks of spiking neurons

Agnes, Everton João January 2014 (has links)
O encéfalo, através de complexa atividade elétrica, é capaz de processar diversos tipos de informação, que são reconhecidos, memorizados e recuperados. A base do processamento é dada pela atividade de neurônios, que se comunicam principalmente através de eventos discretos no tempo: os potenciais de ação. Os disparos desses potenciais de ação podem ser observados por técnicas experimentais; por exemplo, é possível medir os instantes dos disparos dos potenciais de ação de centenas de neurônios em camundongos vivos. No entanto, as intensidades das conexões entre esses neurônios não são totalmente acessíveis, o que, além de outros fatores, impossibilita um entendimento mais completo do funcionamento da rede neural. Desse modo, a neurociência computacional tem papel importante para o entendimento dos processos envolvidos no encéfalo, em vários níveis de detalhamento. Dentro da área da neurociência computacional, o presente trabalho aborda a aquisição e recuperação de memórias dadas por padrões espaciais, onde o espaço é definido pelos neurônios da rede simulada. Primeiro utilizamos o conceito da regra de Hebb para construir redes de neurônios com conexões previamente definidas por esses padrões espaciais. Se as memórias são armazenadas nas conexões entre os neurônios, então a inclusão de um período de aprendizado torna necessária a implementação de plasticidade nos pesos sinápticos. As regras de modificação sináptica que permitem memorização (Hebbianas) geralmente causam instabilidades na atividade dos neurônios. Com isso desenvolvemos regras de plasticidade homeostática capazes de estabilizar a atividade basal de redes de neurônios. Finalizamos com o estudo analítico e numérico de regras de plasticidade sináptica que permitam o aprendizado não-supervisionado por elevação da taxa de disparos de potenciais de ação de neurônios. Mostramos que, com uma regra de aprendizado baseada em evidências experimentais, a recuperação de padrões memorizados é possível, com ativação supervisionada ou espontânea. / The brain, through complex electrical activity, is able to process different types of information, which are encoded, stored and retrieved. The processing is based on the activity of neurons that communicate primarily by discrete events in time: the action potentials. These action potentials can be observed via experimental techniques; for example, it is possible to measure the moment of action potentials (spikes) of hundreds of neurons in living mice. However, the strength of the connections among these neurons is not fully accessible, which, among other factors, preclude a more complete understanding of the neural network. Thus, computational neuroscience has an important role in understanding the processes involved in the brain, at various levels of detail. Within the field of computational neuroscience, this work presents a study on the acquisition and retrieval of memories given by spatial patterns, where space is defined by the neurons of the simulated network. First we use Hebb’s rule to build up networks of spiking neurons with static connections chosen from these spatial patterns. If memories are stored in the connections between neurons, then synaptic weights should be plastic so that learning is possible. Synaptic plasticity rules that allow memory formation (Hebbian) usually introduce instabilities on the neurons’ activity. Therefore, we developed homeostatic plasticity rules that stabilize baseline activity regimes in neural networks of spiking neurons. This thesis ends with analytical and numerical studies regarding plasticity rules that allow unsupervised learning by increasing the activity of specific neurons. We show that, with a plasticity rule based on experimental evidences, retrieval of learned patterns is possible, either with supervised or spontaneous recalling.
10

Estabilidade de atividade basal, recuperação e formação de memórias em redes de neurônios / Stability of basal activity, retrieval and formation of memories in networks of spiking neurons

Agnes, Everton João January 2014 (has links)
O encéfalo, através de complexa atividade elétrica, é capaz de processar diversos tipos de informação, que são reconhecidos, memorizados e recuperados. A base do processamento é dada pela atividade de neurônios, que se comunicam principalmente através de eventos discretos no tempo: os potenciais de ação. Os disparos desses potenciais de ação podem ser observados por técnicas experimentais; por exemplo, é possível medir os instantes dos disparos dos potenciais de ação de centenas de neurônios em camundongos vivos. No entanto, as intensidades das conexões entre esses neurônios não são totalmente acessíveis, o que, além de outros fatores, impossibilita um entendimento mais completo do funcionamento da rede neural. Desse modo, a neurociência computacional tem papel importante para o entendimento dos processos envolvidos no encéfalo, em vários níveis de detalhamento. Dentro da área da neurociência computacional, o presente trabalho aborda a aquisição e recuperação de memórias dadas por padrões espaciais, onde o espaço é definido pelos neurônios da rede simulada. Primeiro utilizamos o conceito da regra de Hebb para construir redes de neurônios com conexões previamente definidas por esses padrões espaciais. Se as memórias são armazenadas nas conexões entre os neurônios, então a inclusão de um período de aprendizado torna necessária a implementação de plasticidade nos pesos sinápticos. As regras de modificação sináptica que permitem memorização (Hebbianas) geralmente causam instabilidades na atividade dos neurônios. Com isso desenvolvemos regras de plasticidade homeostática capazes de estabilizar a atividade basal de redes de neurônios. Finalizamos com o estudo analítico e numérico de regras de plasticidade sináptica que permitam o aprendizado não-supervisionado por elevação da taxa de disparos de potenciais de ação de neurônios. Mostramos que, com uma regra de aprendizado baseada em evidências experimentais, a recuperação de padrões memorizados é possível, com ativação supervisionada ou espontânea. / The brain, through complex electrical activity, is able to process different types of information, which are encoded, stored and retrieved. The processing is based on the activity of neurons that communicate primarily by discrete events in time: the action potentials. These action potentials can be observed via experimental techniques; for example, it is possible to measure the moment of action potentials (spikes) of hundreds of neurons in living mice. However, the strength of the connections among these neurons is not fully accessible, which, among other factors, preclude a more complete understanding of the neural network. Thus, computational neuroscience has an important role in understanding the processes involved in the brain, at various levels of detail. Within the field of computational neuroscience, this work presents a study on the acquisition and retrieval of memories given by spatial patterns, where space is defined by the neurons of the simulated network. First we use Hebb’s rule to build up networks of spiking neurons with static connections chosen from these spatial patterns. If memories are stored in the connections between neurons, then synaptic weights should be plastic so that learning is possible. Synaptic plasticity rules that allow memory formation (Hebbian) usually introduce instabilities on the neurons’ activity. Therefore, we developed homeostatic plasticity rules that stabilize baseline activity regimes in neural networks of spiking neurons. This thesis ends with analytical and numerical studies regarding plasticity rules that allow unsupervised learning by increasing the activity of specific neurons. We show that, with a plasticity rule based on experimental evidences, retrieval of learned patterns is possible, either with supervised or spontaneous recalling.

Page generated in 0.0914 seconds