Spelling suggestions: "subject:"distributions dde gibbs"" "subject:"distributions dde hibbs""
1 |
Statistique de potentiels d'action et distributions de Gibbs dans les réseaux de neurones / Neuronal networks, spike trains statistics and Gibbs distributionsCofré, Rodrigo 05 November 2014 (has links)
Les neurones sensoriels réagissent à des stimuli externes en émettant des séquences de potentiels d’action (“spikes”). Ces spikes transmettent collectivement de l’information sur le stimulus en formant des motifs spatio-temporels qui constituent le code neural. On observe expérimentalement que ces motifs se produisent de façon irrégulière, mais avec une structure qui peut être mise en évidence par l’utilisation de descriptions probabilistes et de méthodes statistiques. Cependant, la caractérisation statistique des données expérimentales présente plusieurs contraintes majeures: en dehors de celles qui sont inhérentes aux statistiques empiriques comme la taille de l’échantillonnage, ‘le’ modèle statistique sous-jacent est inconnu. Dans cette thèse, nous abordons le problème d’un point de vue complémentaire à l’approche expérimentale. Nous nous intéressons à des modèles neuro-mimétiques permettant d’étudier la statistique collective des potentiels d’action et la façon dont elle dépend de l’architecture et l’histoire du réseau ainsi que du stimulus. Nous considérons tout d’abord un modèle de type Intègre-et-Tire à conductance incluant synapses électriques et chimiques. Nous montrons que la statistique des potentiels d’action est caractérisée par une distribution non stationnaire et de mémoire infinie, compatible avec les probabilités conditionnelles (left interval-specification), qui est non-nulle et continue, donc une distribution de Gibbs. Nous présentons ensuite une méthode qui permet d’unifier les modèles dits d’entropie maximale spatio-temporelle (dont la mesure invariante est une distribution de Gibbs dans le sens de Bowen) et les modèles neuro-mimétiques, en fou / Sensory neurons respond to external stimulus using sequences of action potentials (“spikes”). They convey collectively to the brain information about the stimulus using spatio-temporal patterns of spikes (spike trains), that constitute a “neural code”. Since spikes patterns occur irregularly (yet highly structured) both within and over repeated trials, it is reasonable to characterize them using statistical methods and probabilistic descriptions. However, the statistical characterization of experimental data presents several major constraints: apart from those inherent to empirical statistics like finite size sampling, ‘the’ underlying statistical model is unknown. In this thesis we adopt a complementary approach to experiments. We consider neuromimetic models allowing the study of collective spike trains statistics and how it depends on network architecture and history, as well as on the stimulus. First, we consider a conductance-based Integrate-and-Fire model with chemical and electric synapses. We show that the spike train statistics is characterized by non-stationary, infinite memory, distribution consistent with conditional probabilities (Left interval specifications), which is continuous and non null, thus a Gibbs distribution. Then, we present a novel method that allows us to unify spatio-temporal Maximum Entropy models (whose invariant measure are Gibbs distributions in the Bowen sense) and neuro-mimetic models, providing a solid ground towards biophysical explanation of spatio-temporal correlations observed in experimental data. Finally, using these tools, we discuss the stimulus response of retinal ganglion cells, and the possible generalization of the co
|
2 |
Analyse des Statistiques de trains d'Impulsion : Théorie, Implémentation et ApplicationsVasquez Betancur, Juan Carlos 07 March 2011 (has links) (PDF)
Nous proposons une généralisation des modèles actuels, utilisés en neuroscience pour l'analyse des statistiques de trains de potentiels d'action, et basé sur le paradigme de maximisation de l'entropie statistique sous contraintes. Notre méthode permet d'estimer des distributions de Gibbs avec un potentiel paramétrique arbitraire, généralisant les modèles actuels (Ising ou chaines de Markov du premier ordre). Notre méthodologie permet de tenir compte des effets de mémoire dans la dynamique. Elle fournit de manière directe la divergence de Kullback-Leibler entre le statistique empirique et le modèle statistique. Elle ne présuppose pas une forme spécifique du potentiel de Gibbs et ne nécessite pas l'hypothèse de bilan détaillé En outre, elle permet la comparaison de différents modèles statistiques et offre un contrôle des effets de taille finie, propres à la statistique empirique, par le biais de résultats des grandes déviations. Nous avons également développé un logiciel implémentant cette méthode et nous présentons des résultats d'application à des données biologiques issues d'enregistrements par multi-électrode sur des cellules ganglionnaires de rétines animaux. De plus, notre formalisme permet d'étudier l'évolution de la distribution des potentiels d'action lors de la variation des poids synaptiques induits par plasticité. Nous montrons une application a l'analyse de données synthétiques issues d'un réseau neuronal simulé soumis a de la plasticité de type (STDP).
|
Page generated in 0.1295 seconds